Meta entwickelt neue Modelle für die Erzeugung von Bildern, Videos und Text

Von: Volodymyr Stetsiuk | heute, 01:35

Meta arbeitet an zwei neuen Modellen der künstlichen Intelligenz zur Verarbeitung von Bildern und Videos sowie zur Texterzeugung. Laut The Wall Street Journal plant das Unternehmen, basierend auf internem QA, die Modelle in der ersten Hälfte des Jahres 2026 zu veröffentlichen.

Was bekannt ist

Das Modell für Bilder und Videos trägt den Codenamen Mango, das Textmodell heißt Avocado. Die Entwicklung wird vom Meta Superintelligence Lab (MSL)-Team unter der Leitung von Alexander Wang, Mitbegründer von Scale AI, geführt. Während des Treffens erklärte Wang, dass Meta neue "Weltmodelle" erforscht, die visuelle Informationen verstehen, argumentieren, planen und handeln können, ohne für alle möglichen Szenarien trainiert werden zu müssen. Das Textmodell soll auch für die Programmierung optimiert werden.

In diesem Jahr hat Meta seine KI-Abteilungen neu organisiert, einschließlich Änderungen in der Leitung und der Einbeziehung von Forschern aus anderen Unternehmen. Einige haben MSL bereits verlassen. Im November kündigte der leitende Wissenschaftler für künstliche Intelligenz des Unternehmens, Yann LeCun, die Gründung seines eigenen Startups an.

Der Meta KI-Assistent ist in die Anwendungen des Unternehmens, einschließlich der Suche auf Facebook und Instagram, integriert und steht Milliarden von Nutzern zur Verfügung. Die ersten Produkte von MSL werden Teil der aktualisierten KI-Strategie des Unternehmens sein.

Quelle: The Wall Street Journal