HomeTRENDSMeta publicerar nya AI-forskningsmodeller för att påskynda innovation i stor skala

Meta publicerar nya AI-forskningsmodeller för att påskynda innovation i stor skala

Meta släpper fem AI-forskningsmodeller för att stödja global innovation och ansvarsfull AI-utveckling.Chameleon-modellen kan bearbeta och generera både text och bilder samtidigt.Multi-token förutsägelse förbättrar effektiviteten i träningen av stora språkmodeller.JASCO-modellen erbjuder mer kontroll över AI-genererad musik genom att acceptera olika ingångar som ackord eller rytm.AudioSeal är en teknik för att upptäcka AI-genererat tal med högre hastighet och effektivitet.Meta utvecklar indikatorer och genomför studier för att öka mångfalden i text-till-bild genereringssystem.Meta publicerar nya AI-forskningsmodeller för att påskynda innovation i stor skala. Meta’s Fundamental AI Research (FAIR) team släpper fem modeller, inklusive bild-till-text och text-till-musik genereringsmodeller, en multi-token förutsägelsemodell och en teknik för att upptäcka AI-genererat tal. Dessa modeller syftar till att främja ansvarig AI-utveckling och mångfald i text-till-bild genereringssystem.Vilka modeller har Meta släppt för att stödja AI-innovation?Chameleon-modellen: En modell som kan bearbeta och generera både text och bilder samtidigt.En multi-token förutsägelsemodell: Denna modell förbättrar effektiviteten i träningen av stora språkmodeller.JASCO-modellen: En text-till-musik genereringsmodell som erbjuder mer kontroll över AI-genererad musik genom att acceptera olika ingångar som ackord eller rytm.AudioSeal: En teknik för att upptäcka AI-genererat tal med högre hastighet och effektivitet.Indikatorer och studier för att öka mångfalden i text-till-bild genereringssystem.Dessa fem modeller och tekniker utgör kärnan i Metas nya AI-forskningsmodeller som syftar till att främja innovation och ansvarsfull AI-utveckling.Chameleon-modellen är en AI-modell som kan bearbeta och generera både text och bilder samtidigt. Detta innebär att den har förmågan att:Förstå och tolka både textinformation och visuell information.Generera output som innehåller både text och bilder.Växla mellan eller kombinera text- och bildmodaliteter i sina processer.Denna multimodala förmåga gör Chameleon-modellen särskilt flexibel och mångsidig jämfört med modeller som bara kan hantera en typ av data (t.ex. endast text eller endast bilder).

RELATED ARTICLES

Most Popular