W obliczu dynamicznego rozwoju sztucznej inteligencji (AI) na świecie, konkurencja między Stanami Zjednoczonymi a Chinami staje się coraz bardziej zacięta. Wojna technologiczna staje się faktem. Firma OpenAI, znana z opracowania ChatGPT, wyraża obawy dotyczące rosnącej pozycji chińskich przedsiębiorstw w dziedzinie AI, takich jak DeepSeek. W odpowiedzi na te wyzwania, OpenAI proponuje administracji USA strategię mającą na celu utrzymanie przewagi technologicznej.
Chińska konkurencja w dziedzinie AI
Chińska firma DeepSeek wprowadziła na rynek model AI o nazwie DeepSeek-R1, który, według doniesień, dorównuje możliwościom ChatGPT. Co istotne, DeepSeek udostępnił swój model na licencji open source, co pozwala na jego swobodne wykorzystanie i modyfikację przez innych. Taka otwartość sprzyja szybkiemu rozwojowi technologii i może stanowić poważne wyzwanie dla zamkniętych rozwiązań oferowanych przez firmy zachodnie.
Dodatkowo, chińskie przedsiębiorstwa, takie jak Alibaba, intensyfikują swoje działania w obszarze AI. Alibaba wprowadziła model Qwen 2.5-Max, który, według firmy, przewyższa osiągnięcia konkurencji, w tym DeepSeek-V3 oraz GPT-4o od OpenAI. Model ten integruje funkcje generowania tekstu, kodu, obrazów i wideo, co czyni go wszechstronnym narzędziem dla różnych zastosowań.
Obawy OpenAI
OpenAI wyraża zaniepokojenie szybkim postępem Chin w dziedzinie AI. W liście skierowanym do administracji USA firma ostrzega, że chińskie modele, takie jak DeepSeek-R1, mogą stanowić zagrożenie dla pozycji Stanów Zjednoczonych w globalnym wyścigu technologiczny. OpenAI zwraca uwagę na możliwość wykorzystania tych technologii do celów niezgodnych z wartościami demokratycznymi, takich jak inwigilacja czy manipulacja opinią publiczną.
Propozycje dla administracji USA
W odpowiedzi na rosnącą konkurencję, OpenAI przedstawiło administracji USA szereg propozycji mających na celu utrzymanie przewagi technologicznej w dziedzinie AI. Kluczowe elementy tej strategii to:
- Inwestycje w infrastrukturę AI: Budowa zaawansowanych centrów danych o mocy 5 gigawatów, co odpowiada zapotrzebowaniu energetycznemu dużych miast. Takie centra umożliwiłyby efektywne szkolenie i wdrażanie zaawansowanych modeli AI. New York Post
- Zmiany w prawie autorskim: Ułatwienie dostępu do materiałów chronionych prawem autorskim w celu szkolenia modeli AI. Obecne restrykcje mogą ograniczać możliwości rozwoju AI w USA, podczas gdy Chiny nie muszą przestrzegać takich ograniczeń.
- Kontrola eksportu technologii: Wprowadzenie ograniczeń w eksporcie zaawansowanych technologii AI do krajów uznawanych za konkurencyjne lub stanowiące zagrożenie dla bezpieczeństwa narodowego.
- Współpraca międzynarodowa: Zacieśnienie współpracy z sojusznikami w celu stworzenia wspólnych standardów i regulacji dotyczących rozwoju oraz wykorzystania AI.
Nowy podział świata według OpenAI
OpenAI proponuje podział krajów na trzy kategorie w zależności od ich podejścia do AI:
- Tier I: Kraje zobowiązujące się do przestrzegania demokratycznych zasad w rozwoju i wykorzystaniu AI, promujące swobody obywatelskie.
- Tier II: Kraje, które nie mają historii przekazywania technologii AI do państw z kategorii III, ale nie spełniają w pełni kryteriów kategorii I.
- Tier III: Kraje uznawane za wrogie, którym należy całkowicie zakazać dostępu do zaawansowanych systemów AI.
Polska, według tej propozycji, znalazłaby się w kategorii II, co wiązałoby się z pewnymi ograniczeniami w dostępie do technologii AI. Aby awansować do kategorii I, Polska musiałaby zobowiązać się do budowy AI na „demokratycznej infrastrukturze” oraz zapewnić, że nie będzie przekazywać technologii do krajów z kategorii III.
Reakcje i kontrowersje
Propozycje OpenAI spotkały się z mieszanymi reakcjami. Z jednej strony, wielu ekspertów zgadza się z potrzebą utrzymania przewagi technologicznej USA w obliczu rosnącej konkurencji ze strony Chin. Z drugiej strony, pojawiają się obawy dotyczące potencjalnego naruszenia praw autorskich oraz ograniczenia wolności w dostępie do informacji. Ponad 400 twórców z Hollywood, w tym Ron Howard i Cate Blanchett, podpisało list sprzeciwiający się wykorzystywaniu materiałów chronionych prawem autorskim do szkolenia modeli AI bez zgody autorów.
Robert Kawka