Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji

Elon Musk podpisuje list otwarty, prosząc o zaprzestanie szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4

Uwaga: Poniższy artykuł pomoże Ci w: Elon Musk podpisuje list otwarty, prosząc o zaprzestanie szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4

Elon Musk, Wozniak i inni innowatorzy technologiczni i eksperci AI podpisali list otwarty z prośbą o tymczasową przerwę na około sześć miesięcy w rozwoju systemów AI, które są bardziej zaawansowane i wydajne niż GPT OpenAI4 (Generatywny wstępnie wyszkolony transformator 4).

Pauza jest wydawana, powołując się na zagrożenia dla społeczeństwa i cywilizacji, takie jak propaganda i kłamstwa w artykułach generowanych przez sztuczną inteligencję, programy sztucznej inteligencji, które zaczynają przewyższać pracę ludzką i sprawiają, że miejsca pracy stają się przestarzałe i nie tylko.

Kluczowe punkty:

  • Ponad 1000 liderów technologicznych, w tym dyrektor generalny Tesli Elon Musk i eksperci AI, prosi o sześciomiesięczną przerwę w rozwoju systemów AI, które są bardziej zaawansowane i wydajne niż niedawno wprowadzony OpenAI, GPT-4ostrzegając przed zagrożeniami dla społeczeństwa i cywilizacji.
  • W liście stwierdza się, że niżej podpisani eksperci techniczni rozpowszechniają propagandę i kłamią w artykułach generowanych przez sztuczną inteligencję, co może stwarzać ryzyko dla społeczeństwa poprzez rozpowszechnianie niedokładnych informacji.
  • W liście brakuje nazwiska Sama Althmana, a jego komentarze sugerują, że nie planuje wstrzymania rozwoju sztucznej inteligencji

Giganci technologiczni, tacy jak Elon Musk, Steve Wozniak i inni eksperci od sztucznej inteligencji, wystosowali list otwarty, w którym napisali o wstrzymaniu prac nad nowymi systemami sztucznej inteligencji.

List został po raz pierwszy opublikowany przez instytut Future of Life zaledwie kilka tygodni po opublikowaniu przez OpenAI czwartej edycji programu GPT, „GPT-4”, który wywołał duże poruszenie na rynku, zwłaszcza dzięki możliwości zapewniania wydajności na poziomie ludzkim w profesjonalnych i akademickich testach porównawczych.

Wydanie GPT- OpenAI4 zawiera możliwość zdania kilku zaawansowanych egzaminów kwalifikacyjnych, w tym egzaminu Uniform Bar, LSAT, GRE i innych. GPT-4 był nawet w stanie zdobyć 90. percentyl na egzaminach Uniform Bar dla początkujących prawników.

Rekommenderad:  DeepMind zgłasza nową metodę bezpiecznego uczenia się sztucznej inteligencji ze wzmacniania

Sześciomiesięczna przerwa w rozwoju systemów AI potężniejszych niż GPT-4

The List otwarty prosi programistów AI o „natychmiastowe wstrzymanie rozwoju i szkolenia systemów AI, które są potężniejsze niż niedawno wprowadzony GPT-4 przez sześć miesięcy.” List podpisało już ponad 1000 osób, w tym Elon Musk.

Pismo stwierdza, „Potężniejsze systemy sztucznej inteligencji niż GPT-4 powinna zostać wyprodukowana dopiero wtedy, gdy twórcy sztucznej inteligencji będą pewni wyników i przekonani, że potencjalnym ryzykiem można zarządzać bez żadnego ryzyka i obaw”.

Ponadto list zawiera również ostrzeżenie, że nikt „nie może przewidzieć, zrozumieć ani niezawodnie kontrolować” nowego narzędzia, które jest zasilane w laboratoriach AI. Niżej podpisani eksperci techniczni zgłaszają ryzyko nieścisłości, kłamstw i propagandy przetaczającej się przez te artykuły generowane przez sztuczną inteligencję, które wydają się wyglądać dokładnie realnie.

Treści generowane przez sztuczną inteligencję zwiększają również prawdopodobieństwo, że programy sztucznej inteligencji zaczną osiągać lepsze wyniki niż pracownicy, co może spowodować, że miejsca pracy staną się przestarzałe.

Niezależni eksperci i laboratoria sztucznej inteligencji powinny wykorzystać tę sześciomiesięczną przerwę na opracowanie i stworzenie listy wspólnych protokołów bezpieczeństwa dla progresywnego projektowania i rozwoju sztucznej inteligencji oraz są uważnie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych.

Oprócz tych decydentów w liście OpenAI zasugerowano jeszcze jedną rzecz, nad którą programiści AI muszą pracować, aby przyspieszyć proces rozwoju energicznego systemu zarządzania AI.

Sygnatariusze to Stability AI CEO, Emad Mostaque, AI wagi ciężkiej Stuart Russell i Yoshua Bengio wraz z badaczami DeepMind należącymi do Alphabet, podkreślając, że pauza nie powinna być wprowadzana, wspominając, że tymczasowa pauza na sześć miesięcy będzie „krokiem wstecz od trudny wyścig do coraz większego, nieoczekiwanego modelu czarnej skrzynki z pojawiającymi się zdolnościami”.

Profesor Uniwersytetu Nowojorskiego, Gary Marcus, który podpisał list, stwierdził: „List nie jest do końca doskonały, jednak duch jest poprawny: rozwój sztucznej inteligencji powinien zostać spowolniony, dopóki nie uzyskamy lepszego zrozumienia konsekwencji.

Rekommenderad:  Oświetlenie Microgreens: kompletny przewodnik

Od czasu premiery ChatGPT w zeszłym roku, OpenAI skłoniło rywali do zachęcania do rozwoju dużych modeli językowych, a firmy, w tym Google Alphabet, ścigają się, aby ulepszyć swoje produkty w AI.

Nazwisko dyrektora generalnego OpenAI, Sama Altmana, wciąż brakuje w liście OpenAI ze środy, stwierdzając firma podejmuje niezbędne środki w zakresie bezpieczeństwa sztucznej inteligencji: „Przypuszczam, że o kwestiach bezpieczeństwa rozmawiamy najgłośniej od dłuższego czasu”

Table of Contents