Yann LeCun otwiera nowy rozdział w historii sztucznej inteligencji. Jego AMI Labs, wspierane miliardowym kapitałem (Nvidia, Samsung, Bezos), odchodzi od statystycznych modeli LLM na rzecz Modeli Świata (World Models). To przesunięcie od „gadających chatbotów” ku systemom rozumiejącym fizyczną rzeczywistość.
Kluczowe założenia AMI Labs:
-
Zrozumienie przyczynowości: AI uczy się przez obserwację świata (jak dziecko), a nie tylko analizę tekstu, co pozwala pojąć prawa fizyki.
-
Eliminacja halucynacji: Dzięki oparciu na logice i modelach rzeczywistości, systemy AMI Labs weryfikują fakty przed sformułowaniem odpowiedzi.
-
AI jako Agent: Zamiast generować treści, modele te mają autonomicznie rozwiązywać problemy w inżynierii, nauce i medycynie.
Inwestycja miliarda dolarów to jasny sygnał: branża dostrzegła „szklany sufit” obecnych technologii i upatruje w AMI Labs drogi do prawdziwej AGI.
W świecie technologii niektóre nazwiska ważą więcej niż całe działy badawcze. Yann LeCun, uznawany za jednego z „ojców chrzestnych” głębokiego uczenia, po latach kierowania rozwojem sztucznej inteligencji w Meta, zdecydował się na odważny krok. Pożegnanie z Markiem Zuckerbergiem pod koniec 2025 roku nie było emeryturą, lecz przygotowaniem do technologicznego uderzenia. Dziś, w kwietniu 2026 roku, znamy już szczegóły: AMI Labs wkracza do gry z miliardowym finansowaniem i wizją, która sprawia, że dzisiejsze modele LLM wyglądają jak zaledwie wstęp do właściwej opowieści.
Dlaczego modele językowe to za mało?
Dominujące obecnie modele językowe, takie jak ChatGPT czy Claude, opierają się na statystycznym przewidywaniu kolejnego elementu w ciągu danych. Choć potrafią generować imponujące teksty, LeCun od dawna punktuje ich fundamentalną słabość: brak zrozumienia praw rządzących fizyczną rzeczywistością. Według niego AI nowej generacji nie może być tylko „odtwórcza”.
Rozwiązaniem mają być World Models (Modele świata). To koncepcja, w której sztuczna inteligencja nie uczy się poprzez czytanie milionów stron tekstu, ale poprzez obserwację świata i wyciąganie wniosków z doświadczeń. To podejście naśladuje proces poznawczy człowieka – dziecko nie uczy się grawitacji, czytając podręczniki, lecz obserwując spadające przedmioty.
Koniec z halucynacjami? Siła logiki nad statystyką
Największą zmorą obecnych systemów AI są tzw. halucynacje – sytuacje, w których model z dużą pewnością siebie podaje nieprawdziwe informacje. Wynika to z faktu, że LLM-y nie weryfikują faktów pod kątem logicznym, a jedynie dopasowują je statystycznie.
AMI Labs stawia na całkowitą zmianę paradygmatu:
-
Doświadczenie zamiast danych: AI uczy się interakcji i skutków działań w symulowanych lub rzeczywistych środowiskach.
-
Logika zamiast przewidywania: Systemy mają operować na wewnętrznych modelach rzeczywistości, co pozwala im „przewidzieć” skutek fizyczny lub logiczny, zanim sformułują odpowiedź.
-
Zrozumienie kontekstu: Dzięki obserwacji AI ma rozumieć przyczynowość, co jest kluczem do wyeliminowania błędów merytorycznych.
Miliard dolarów od gigantów branży
Ambicje LeCuna zostały poparte potężnym kapitałem. Runda finansowania AMI Labs, opiewająca na ponad miliard dolarów, przyciągnęła graczy, którzy rzadko inwestują w projekty obarczone dużym ryzykiem technologicznym. Na liście inwestorów znaleźli się m.in.:
-
Nvidia – gigant dostarczający infrastrukturę obliczeniową.
-
Samsung – zainteresowany implementacją nowej AI w urządzeniach końcowych.
-
Cathay Innovation – globalny fundusz venture capital.
-
Bezos Expeditions – prywatna firma inwestycyjna Jeffa Bezosa.
Zaufanie tak szerokiego spektrum inwestorów sugeruje, że branża dostrzega „szklany sufit” obecnych technologii opartych na transformatorach i szuka drogi do prawdziwej AGI (Sztucznej Inteligencji Ogólnej).
Co dalej z AMI Labs?
Wizja Yanna LeCuna jest jasna: AI musi przestać być chatbotem, a stać się agentem, który rozumie świat tak dobrze, jak my. Jeśli AMI Labs uda się zrealizować plan budowy Modelu Świata, możemy być świadkami przejścia od ery „generowania treści” do ery „autonomicznego rozwiązywania problemów”. Dla użytkowników oznacza to systemy, którym będzie można zaufać w krytycznych zadaniach inżynieryjnych, medycznych czy naukowych, gdzie na „halucynacje” po prostu nie ma miejsca.
Komentarze (0)