Przed zwolnieniem Sama Altmana OpenAI pracowało nad sztuczną inteligencją (AI) na tyle potężną, że martwiła firmę. Model nazwany Q* (wymawiane „Q-Star”) byłby w stanie rozwiązywać problemy matematyczne, których nigdy wcześniej nie widziano, co oznaczałoby przełom w technologii. Informacje pochodzą z Reutersa.
Zaniepokojenie zostało wyrażone w piśmie wysłanym do Zarządu OpenAI na krótko przed zwolnieniem Sama Altmana, ponownie pełniącego obecnie funkcję dyrektora generalnego firmy. Miałby to być jeden z powodów odwołania dyrektora.
Jak niebezpieczne jest Q*?
Obecnie modele językowe (LLM) umożliwiają formułowanie zdań i zdań w oparciu o modele probabilistyczne. To tak, jakby sztuczna inteligencja była w stanie poradzić sobie tylko z pytaniami, które zostały jej już zadane, ale z niesamowitą mocą obliczeniową.
Według źródeł Reuters, Q* pokonało to ograniczenie. Platforma okazała się zdolna do rozwiązywania problemów matematycznych na poziomie podstawowym — w przeciwieństwie do kalkulatora, który jest w stanie wykonać skończoną liczbę operacji.
Eksperci zwracają uwagę, że projekt Q* byłby ważnym krokiem w stronę sztucznej inteligencji ogólnej (AGI) — systemu autonomicznego, bardziej inteligentnego od człowieka. Ogólnie rzecz biorąc, sztuczna inteligencja miałby zdolności poznawcze podobne do ludzkich.
Tym samym model miałby nie tylko dostęp do wcześniej dostarczonej wiedzy, ale także byłby w stanie uogólniać, uczyć się i rozumieć tak naprawdę nieskończoną ilość rozwiązań matematycznych.
Pisałby o tym sam Sam Altman ewolucja Q* na konferencji. „TO [descoberta] Do ostatniego z nich doszło zaledwie kilka tygodni temu. Udało mi się być na sali, gdy przesuwaliśmy zasłonę niewiedzy i przesuwaliśmy granice odkryć, a możliwość tego jest zawodowym zaszczytem na całe życie, – wspomniał podczas wydarzenia. Dzień później został zwolniony.
Jakie są zagrożenia związane z Q*?
W piśmie śledczy mieli ostrzec Radę o zagrożeniach związanych z tym nowym projektem, ale nie precyzując, jakie one były. Reuters nie miał dostępu do ww. pisma i nie otrzymał odpowiedzi od OpenAI. Nie da się zatem zagwarantować treści przekazu, ani prawdziwego potencjału narzędzia.