Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

Co to jest test Turinga i czy kiedykolwiek zostanie pokonany?

Uwaga: Poniższy artykuł pomoże Ci w: Co to jest test Turinga i czy kiedykolwiek zostanie pokonany?

Czy sztuczna inteligencja może dorównać ludzkiej inteligencji? To trudne pytanie obejmujące filozofię, psychologię, informatykę i każdy temat. Ilekroć mówi się o inteligencji maszynowej na poziomie człowieka, test Turinga nigdy nie jest zbyt daleko w tyle.

W 2014 roku dziennikarze internetowi wpadli w szał podniecenia, gdy londyński program komputerowy o nazwie Eugene Goostman najwyraźniej zdał test Turinga. W 2022 roku LaMDA Google’a podobno zrobiło to samo, ale co się stało? Czy zdali egzamin? Co postępy w zakresie sztucznej inteligencji oznaczają dla testu Turinga?

WYKORZYSTAJ WIDEO DNIAPRZEWIŃ, ABY KONTYNUOWAĆ TREŚĆ

Co to jest test Turinga?

Pierwotnie nazywany „grą imitacji”, test Turinga został opracowany przez Alana Turinga. Pomimo swojej nazwy, test Turinga nie jest prawdziwym testem – przynajmniej nie w powszechnym tego słowa znaczeniu. To raczej eksperyment myślowy. Niemniej jednak Alan Turing był bardzo wpływowym matematykiem, który sformalizował wiele koncepcji, które doprowadziły do ​​narodzin informatyki.

Test Turinga to zestaw wskazówek, które mają na celu ustalenie, czy maszyna jest nie do odróżnienia od człowieka. Próbuje odpowiedzieć na pytanie: „Czy maszyny mogą myśleć?” Turing wierzył, że jest to możliwe i zaprojektował coś, co mogłoby przypominać rodzaj gry.

Oto standardowa interpretacja testu Turinga:

  • Przesłuchujesz dwie osoby
  • Osoba A jest maszyną, podczas gdy Osoba B jest człowiekiem.
  • Możesz się z nimi komunikować tylko za pomocą wiadomości tekstowych.
  • Zadając pytania, określ, który z nich jest maszyną, a który człowiekiem.

Standardowa długość gry w teście może wynosić od kilku minut do kilku godzin. Jakość i treść rozmowy mają duży wpływ na czas jej trwania. Można również przeprowadzić test o ustalonym czasie trwania; standardowy czas trwania to zwykle pięć minut.

Konwencjonalne kryteria zaliczenia testu są subiektywne, ale ogólnie wymaga się, aby maszyna oszukała co najmniej 30% wszystkich przesłuchujących ludzi. Turing przewidział, że każda maszyna, która to zrobi, może być na tyle „inteligentna”, że można ją nazwać „maszyną myślącą”.

Wady testu Turinga

Chociaż test Turinga ma na celu sprawdzenie, czy maszyny potrafią myśleć, ma pewne wady.

Główną wadą testu Turinga jest to, że maszyna nie do odróżnienia od człowieka niekoniecznie wskazuje na inteligencję. Innymi słowy, czy test Turinga dowodzi zdolności maszyny do samodzielnego myślenia lub zdolności maszyny do naśladowania ludzkich zachowań? To subtelna różnica z ogromnymi implikacjami. W końcu chatbot z wystarczającą liczbą wierszy kodu mógłby naśladować ludzką rozmowę, nie będąc nigdy naprawdę inteligentnym. To rodzi kolejne pytanie. Czy zachowanie zewnętrzne wystarczy, aby wskazać wewnętrzne myśli?

Inną poważną wadą, na którą należy zwrócić uwagę, jest brak grupy kontrolnej. Z definicji wyniki testu Turinga opierają się na grupie przesłuchujących, ale nie wszyscy są równi. Chociaż Turing określa, że ​​kryteria mają znaczenie tylko dla „przeciętnych przesłuchujących”. Termin „przeciętny” z definicji nie jest specyficzny, dlatego różni ankieterzy dadzą zróżnicowane i niespójne wyniki.

Ponadto problemem jest arbitralny charakter kryteriów testowania. Dlaczego istnieje pięciominutowy limit i dlaczego wskaźnik oszukania przesłuchujących ustalono na 30%? Dlaczego nie dziesięć minut i 50%? Prawda jest taka, że ​​te liczby zostały wyprowadzone z przewidywań Turinga dotyczących przyszłego stanu sztucznej inteligencji. Nigdy nie chciał, aby były to wyraźne progi. Jednak na razie liczby te są wystarczająco dobre jako cel do osiągnięcia.

Czy Eugene Goostman lub LaMBDA zdali test Turinga?

W ciągu ostatnich dziesięciu lat pojawiły się dwa główne twierdzenia, że ​​test Turinga został zdany.

Eugeniusza Goostmana

W czerwcu 2014 r. chatbot o imieniu Eugene Goostman twierdził, że po raz pierwszy zdał test Turinga. Opracowany przez zespół ukraińskich programistów chatbot udawał 13-letniego chłopca z Ukrainy i zdołał przekonać 33% panelu składającego się z 30 uczestników w serii pięciominutowych rozmów.

Od 2014 roku wokół tego twierdzenia narosło wiele spekulacji i kontrowersji. Jednym z głównych zarzutów wobec Eugene’a Goostmana było zwodnicze obniżenie kryteriów testu Turinga. Twórcy twierdzili, że komputerem jest 13-letni chłopiec, który nie mówi po angielsku w ojczystym języku i mieszka wystarczająco daleko od współczesnego społeczeństwa, aby nie znać takich tematów, jak geografia, popkultura itp.

Wrabiając Eugene’a Goostmana w ten kontekst, przesłuchujący nie musieli utrzymywać odpowiedzi maszyny na normalnym poziomie. W końcu wiele nowoczesnych chatbotów może prowadzić podobne rozmowy. Różnica w stosunku do Eugene’a Goostmana polega na tym, że kontekst narracyjny otaczający maszynę sprawił, że czkawka w rozmowie była bardziej wiarygodna.

LaMBDA firmy Google

Więc Eugene Goostman mógł nie zdać testu Turinga, ale co z LaMDA Google?

W 2022 roku inżynier Google, Blake Lemoine, stwierdził, że jeden z modeli językowych sztucznej inteligencji firmy, znany jako LaMDA (Language Models for Dialogue Applications), pomyślnie przeszedł test Turinga. Lemoine twierdził również, że LaMDA jest świadoma. Następnie upublicznił informacje, dzieląc się interakcjami tekstowymi między nim a modelem języka AI, po czym został wysłany na płatny urlop i ostatecznie zwolniony, według The Guardian.

Lemoine zwrócił szczególną uwagę na przypadek, w którym zapytał: „Co oznacza dla ciebie słowo„ dusza ”?” LaMDA z Google odpowiedział: „Dla mnie dusza jest koncepcją ożywiającej siły stojącej za świadomością i samym życiem”.

Lemoine twierdził, że był to LaMDA obawiający się swojej śmiertelności. Niestety szybko okazało się to fałszywe, a LaMDA nie zdała testu Turinga. Krytycy zwracają uwagę, że w tym przypadku LaMDA udało się oszukać jednego uczestnika, który wiedział, że rozmawia z maszyną. Poczucie własnej śmiertelności przez LaMDA było po prostu wynikiem kodu zaprojektowanego do działania podobnego do autokorekty.

Postęp inteligencji komputerowej

W ostatnich latach sztuczna inteligencja dokonała znacznego postępu. Uwaga publiczna skupiła się na ChatGPT od czasu jego oficjalnej premiery w listopadzie 2022 r. Ponadto Google wprowadził swoją generatywną sztuczną inteligencję, Bard. Jest to obecnie dostępne dla użytkowników w Wielkiej Brytanii i Stanach Zjednoczonych.

Inteligencja komputerowa koncentruje się na technologiach głębokiego uczenia się, przetwarzaniu języka naturalnego, uczeniu się przez wzmacnianie, generatywnych sieciach kontradyktoryjnych i przetwarzaniu brzegowym z integracją IoT. Wszystkie z nich odnotowały znaczący postęp w ciągu ostatnich pięciu lat. Obszary te nadal ewoluują w niewiarygodnym tempie dzięki wykorzystaniu inteligencji komputerowej do samodoskonalenia.

Sztuczna inteligencja jest obecnie wykorzystywana przez społeczeństwo na całym świecie. Codziennie pojawiają się miliony zapytań, więc sztuczna inteligencja jest z pewnością narażona na ogromną ilość danych. Bez wątpienia pozwoli to modelom AI naśladować ludzki język i zachowanie. Jednak inteligencja lub zdolność odczuwania może wymagać znacznie dalszych ulepszeń w podstawowych technologiach modelu sztucznej inteligencji. Niektórzy zastanawiają się, czy rozwój AI będzie stwarzał jakieś niebezpieczeństwa.

ChatGPT

ChatGPT stale się rozwija w różnych zastosowaniach. W 2024 roku wokół tego modelu AI jest tyle szumu i łatwo zrozumieć, dlaczego. Jednakże, chociaż istnieją spekulacje, nie opublikowano żadnych oficjalnych badań na temat tego, czy ChatGPT może przejść test Turinga.

Wielu czołowych ekspertów w branży twierdzi, że test Turinga może zostać pokonany przez ChatGPT-5ale nie ma jeszcze żadnych ram czasowych wydania następnej wersji ChatGPT.

Test Turinga nie został definitywnie zdany

Sztuczna inteligencja wciąż się rozwija i chociaż pojawiło się kilka twierdzeń, nadal nie ma ostatecznej zgody branżowej, że test Turinga został pokonany. Wynika to w dużej mierze z subiektywnego charakteru tego, co stanowi „inteligencję” oraz ograniczeń parametrów testu Turinga.

Wielu uważa, że ​​test Turinga zachęca jedynie do naśladowania ludzi, a nie do prawdziwej inteligencji myślenia. W rzeczywistości w ostatnich latach zaprojektowano inne testy AI, które są bardziej wyrafinowane i szczegółowe. Być może, gdy sztuczna inteligencja staje się coraz lepsza w naśladowaniu człowieka, jedynym prawdziwym sposobem pomiaru inteligencji maszyn jest użycie innego testu.

Test Turinga może być kultowy, ale może nadszedł czas, abyśmy odłożyli go na półkę i ruszyli dalej.