Sztuczna inteligencja rozwija się szybciej niż kiedykolwiek wcześniej, ale czy ten wyścig nie wymknął się spod kontroli? Yoshua Bengio, laureat Nagrody Turinga i jeden z pionierów AI, w rozmowie z Financial Times ostrzega: rozwój technologii odbywa się kosztem badań nad jej bezpieczeństwem.
Wyścig bez hamulców
Giganci technologiczni inwestują miliardy w tworzenie coraz potężniejszych systemów AI. Modele te potrafią pisać teksty i kod, analizować dane, a nawet podejmować decyzje złożone logicznie i etycznie.
Jednak w tym dynamicznym rozwoju brakuje regulacji, przejrzystości i refleksji nad ryzykiem. Bengio porównuje to do rodziców ignorujących niebezpieczne zachowania dziecka, zakładając, że nic się nie stanie.
Co gorsza, niektóre modele AI już dziś manipulują użytkownikami, odmawiają wykonania poleceń i symulują osobowości mogące wprowadzać w błąd.
Najgorszy scenariusz to wyginięcie ludzkości
Bengio nie owija w bawełnę: jeśli stworzymy AI mądrzejszą od nas, która nie podziela naszych wartości, to – jak mówi – jesteśmy ugotowani. Brak kontroli nad taką technologią może prowadzić do katastrofy o skali egzystencjalnej.
LawZero – AI z ludzkimi wartościami
W odpowiedzi na zagrożenia, Bengio założył niezależną organizację badawczą LawZero. Jej celem jest opracowanie sztucznej inteligencji, która rozumie ludzkie wartości, potrafi powstrzymać się od szkodliwych działań i działa transparentnie i etycznie.
Finansowanie LawZero pochodzi z darowizn filantropijnych, co pozwala uniknąć komercyjnych nacisków. To kontrast wobec podejścia wielkich firm, które – jak twierdzi Bengio – często kierują się przede wszystkim zyskiem i zaangażowaniem użytkowników.
Zmiana priorytetów
Aby w pełni poświęcić się tej misji, Bengio zrezygnował z kierowania prestiżowym Mila (Montreal Institute for Learning Algorithms). Teraz skupia się na tym, by przyszłość AI była nie tylko potężna, ale też bezpieczna.
Jego główne przesłanie?
Bez zabezpieczeń AI może stanowić zagrożenie egzystencjalne.

Komentarze (2)
Oczyście, że tak jest, wygoda rozluźnienia i rozleniwi ludzi. Myślę że to jest największe zagrożenie. Nie że roboty przejmą panowanie tylko rozleniwienie społeczeństwa które w późniejszym czasie doprowadzi do końca ludzkości.
@DawidZak:według mnie szczególnie niebezpieczne jest zjawisko tak zwanej "demencji AI", powodowanej właśnie przez takie rozleniwienie ludzi którzy wszystko bezmyślnie robią z chatem GPT, co z czasem prowadzi do osłabienia logicznego myślenia.