24. Februar (Reuters) – Meta Platforms Inc (METAO) gab am Freitag bekannt, dass es Forschern ein neues großes Sprachmodell, das Basisprogramm für ein neues System der künstlichen Intelligenz, zur Verfügung stellen wird, das das KI-Wettrüsten intensiviert, wenn große Technologieunternehmen darauf drängen die Technologie in ihre Produkte integrieren und Investoren begeistern.
Der öffentliche Kampf um die Kontrolle über den KI-Tech-Raum begann Ende letzten Jahres mit der Einführung der von Microsoft unterstützten OpenAI-Software ChatGPT und veranlasste Tech-Giganten von Alphabet Inc (GOOGL.O) bis hin zu Chinas Baidu (9888.HK). eigene Angebote bewerben. .
Meta LLaMA, kurz für Large Language Model Meta AI, wird unter einer nichtkommerziellen Lizenz für Forscher, Regierungsbehörden, die Zivilgesellschaft und die Wissenschaft verfügbar sein. Bloggen.
Große Sprachmodelle durchsuchen riesige Textmengen, um Informationen zusammenzufassen und Inhalte zu erstellen. Sie können beispielsweise Fragen mit Sätzen beantworten, die gelesen werden können, als wären sie von Menschen geschrieben.
Letzte Aktualisierung
Sehen Sie sich 2 weitere Geschichten an
Das Modell, das laut Meta „deutlich weniger“ Rechenleistung als frühere Demonstrationen benötigte, wurde in 20 Sprachen trainiert, wobei der Schwerpunkt auf Sprachen mit lateinischen und kyrillischen Alphabeten lag.
„Die heutige Meta-Ankündigung scheint ein Schritt zum Testen ihrer generativen KI-Fähigkeiten zu sein, damit sie sie in Zukunft in ihre Produkte implementieren können“, sagte Jill Luria, Senior Software Analyst bei DA Davidson.
„Generative KI ist eine neue KI-Anwendung, mit der Meta weniger Erfahrung hat, die aber eindeutig wichtig für die Zukunft ihres Unternehmens ist.“
Künstliche Intelligenz hat sich zu einem Lichtblick für Investitionen in der Technologiebranche entwickelt, deren langsames Wachstum zu weit verbreiteten Entlassungen und niedrigeren experimentellen Einsätzen geführt hat.
Laut Meta kann LLaMA die Konkurrenz übertreffen, indem mehr Parameter oder Variablen untersucht werden, die der Algorithmus berücksichtigt.
Insbesondere sagte er, dass eine Version von LLaMA mit 13 Milliarden Parametern GPT-3, einen neueren Vorgänger des Modells, auf dem ChatGPT aufbaut, übertreffen könnte.
Er beschrieb das LLaMA-Modell mit 65 Milliarden Variablen als „konkurrenzfähig“ zu Googles Chinchilla70B und PaLM-540B, die größer sind als das Modell, das Google verwendet hat, um Bards Chat-basierte Suche zu zeigen.
Eine Meta-Sprecherin führte die Leistung auf die „sauberere“ größere Datenmenge und „architektonische Verbesserungen“ im Modell zurück, die die Trainingsstabilität verbesserten.
Meta veröffentlichte im Mai letzten Jahres ein großes Sprachmodell OPT-175B, das ebenfalls für Forscher bestimmt ist und die Grundlage für eine neue Iteration des BlenderBot-Chatbots bildete.
Später stellte sie ein Modell namens Galactica vor, das wissenschaftliche Artikel schreiben und mathematische Probleme lösen konnte, aber die Demo schnell zurückzog, nachdem sie falsche, scheinbar glaubwürdige Antworten erzeugt hatte.
Zusätzliche Berichterstattung von Yuvraj Malik und Eva Matthews in Bengaluru und Katie Paul in New York; Redaktion von Shailesh Cooper und Grant McCall
Unsere Standards: Thomson Reuters Trust-Prinzipien.
More Stories
Apple führt mit dem neuesten iOS-Update die KI-Objektentfernung in Fotos ein
Physische Veröffentlichung der Castlevania Dominus Collection bestätigt, Vorbestellungen ab nächsten Monat möglich
Microsoft verbessert die Leistung der Ryzen-CPU mit dem neuesten Windows 11-Update