Nanofotonika: Obliczenia z prędkością światła
W obliczu bariery energetycznej AI, nanofotonika proponuje rewolucyjną zamianę elektronów na fotony. Prototypy z Sydney i Tsinghua dowodzą, że modele sztucznej inteligencji mogą działać w nanoskalowych strukturach bez generowania niszczycielskiego ciepła.
Dlaczego światło wygrywa z krzemem?
-
Zero oporu: Fotony pędzące przez nanostruktury nie napotykają oporu elektrycznego, eliminując emisję ciepła.
-
Pikosekundowa skala: Manipulacja światłem pozwala na operacje w czasie bilionowych części sekundy.
-
Multipleksacja falowa: Przesyłanie danych na różnych długościach fali drastycznie zwiększa przepustowość.
Gwałtowny rozwój sztucznej inteligencji napotyka obecnie na twardą barierę fizyczną oraz ekonomiczną. Rosnące lawinowo zapotrzebowanie na moc obliczeniową i energię elektryczną stało się jednym z najpoważniejszych wyzwań współczesnej technologii. Tradycyjne centra danych nie tylko pochłaniają ogromne zasoby prądu, ale generują przy tym gigantyczne ilości ciepła, co wymusza stosowanie kosztownych systemów chłodzenia, zużywających miliony litrów wody. W tym kontekście nanofotonika jawi się jako rozwiązanie ratunkowe, mogące zapobiec tzw. recesji AI.
Pikosekundy zamiast elektronów: Mechanizm działania nanofotoniki
Zespół badawczy z University of Sydney, pod kierownictwem prof. Xiaoke Yi, zaprezentował na łamach czasopisma „Nature Communications” w pełni funkcjonalny prototyp chipu fotonicznego. W przeciwieństwie do klasycznych procesorów, ten układ do wykonywania operacji matematycznych wykorzystuje fotony zamiast elektronów. Przełom polega na osadzeniu modeli sztucznej inteligencji bezpośrednio w nanoskalowych strukturach, których grubość jest porównywalna do ludzkiego włosa.
Dlaczego ta zmiana jest tak istotna?
-
Brak oporu: Przesyłanie elektronów przez miedziane i krzemowe ścieżki zawsze wiąże się z oporem elektrycznym, co nieuchronnie prowadzi do emisji ciepła.
-
Prędkość: Manipulowanie światłem pozwala wyeliminować ten problem, umożliwiając wykonywanie obliczeń w skali pikosekund, czyli bilionowych części sekundy.
-
Skuteczność: Aby dowieść użyteczności tej technologii, badacze wytrenowali sieć neuronową, która z sukcesem sklasyfikowała ponad 10 tysięcy obrazów biomedycznych, w tym skany MRI klatki piersiowej i brzucha, osiągając dokładność na poziomie 90–99%.
Globalny wyścig o wydajność
Sukces naukowców z Australii jest częścią szerszego, światowego trendu poszukiwania alternatyw dla energochłonnych konwolucyjnych sieci neuronowych (CNN). Ośrodki takie jak MIT czy Uniwersytet Florydy pracują nad własnymi rozwiązaniami, które mogą zrewolucjonizować rynek. Pół roku temu zaprezentowano fotoniczny korektor transformaty sprzężonej (pJTC), który wykorzystując laser i soczewki Fresnela, przetwarza dane w sposób niemal neutralny dla bilansu energetycznego.
Dzięki zjawisku multipleksacji falowej – czyli jednoczesnemu przesyłaniu informacji za pomocą światła o różnych długościach fali – technologia ta pozwala na osiągnięcie niewyobrażalnych parametrów. Porównanie wydajności nowych układów z dzisiejszymi liderami rynku elektroniki przedstawia poniższa tabela:
| Parametr | Procesor Fotoniczny (Prototyp) | NVIDIA Blackwell B200 |
| Wydajność energetyczna |
305 TOPS/ W (biliony operacji/s na wat) |
ok. 20 TOPS/W |
| Nośnik informacji |
Fotony (światło) |
Elektrony |
| Główna korzyść |
Brak emisji ciepła, ogromna prędkość |
Wysoka kompatybilność, obecny standard |
Optyczna odpowiedź z Azji: Częstotliwość 12,5 GHz
Równolegle do osiągnięć z Sydney, badacze z chińskiego Uniwersytetu Tsinghua skonstruowali procesor optyczny nowej generacji o nazwie OFE2. Inżynierom udało się rozwiązać fundamentalny problem zakłóceń wiązki świetlnej przy bardzo wysokich częstotliwościach pracy. Stworzony przez nich moduł dzieli dane wejściowe na wiele równoległych strumieni światła, co pozwala na stabilne funkcjonowanie przy częstotliwości 12,5 GHz.
W praktyce oznacza to, że chiński układ wykonuje pojedyncze mnożenie macierzowo-wektorowe w zaledwie 250,5 pikosekundy. Takie wyniki stawiają tradycyjną elektronikę w trudnym położeniu i wskazują na nadchodzącą zmianę paradygmatu w projektowaniu superkomputerów.
„Technologia ta nie jest już tylko teoretycznym modelem. Prace nad komercyjnym skalowaniem rozwiązania, wspierane przez Australian National Fabrication Facility, już trwają”.
Podsumowując, zastosowanie światła w procesach obliczeniowych to nie tylko obietnica niższych rachunków za prąd. To przede wszystkim szansa na utrzymanie tempa rozwoju sztucznej inteligencji bez obciążania zasobów naturalnych planety w sposób, który do niedawna wydawał się nieunikniony.
Komentarze (0)