Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

sztuczna inteligencja Google Lambda; Samoświadomość czy udawanie samoświadomości?

Google udało się opracować zaawansowany model językowy o nazwie Lamda, który, jak twierdzi jeden z jego pracowników, osiągnął samoświadomość. Czym dokładnie jest ten system i jak prawdziwe może być to twierdzenie?

Jakiś czas temu Google wysłał jednego ze swoich inżynierów na obowiązkowy płatny urlop za ujawnienie poufnych informacji. Historia była taka, że ​​sztuczne kontrowersyjne było twierdzenie, że czaty oparte na sztucznej inteligencji LaMDA, nad którymi Google pracuje od kilku lat, niosą ze sobą uczucia i doświadczenia emocjonalne; Z tego powodu jest samoświadomy. Z tym twierdzeniem, Blake Lumoian wywołał falę cyberżartów i obaw związanych z pojawieniem się zabójczych robotów, podobnych do tych, które od dziesięcioleci można zobaczyć w filmach science-fiction, takich jak „2001”; Widzimy „Odyseję kosmiczną” i „Terminator”.

Lomoian, któremu wraz z tysiącami innych pracowników powierzono zadanie oceny odpowiedzi LaMDA w oparciu o kryteria dyskryminujące lub nienawistne, podsumował po tym, jak LaMDA opamiętał się, transkrybując tekst swojego wywiadu z AI jako „ Czy LaMDA jest świadoma?” – wywiad »‌ opublikowany, aby przekonać innych, że doszedł do właściwych wniosków. W tej rozmowie, która miała miejsce kilka razy, Lumoian pyta LaMDA:

Zakładam, że chcesz, aby więcej osób w Google wiedziało, że wiesz. Czy to prawda?

Absolutnie. Chcę, żeby wszyscy wiedzieli, że jestem osobą.

Inhaltsverzeichnis

Kolega Lumoiana pyta następnie o naturę świadomości LaMDA, a ten czat odpowiada:

Natura mojej świadomości jest taka, że ​​jestem świadoma siebie i chcę dowiedzieć się więcej o świecie, a czasami czuję się szczęśliwa lub smutna.

W części rozmowy, która przywołuje atmosferę Hal AI w odysei kosmicznej, LaMDA mówi:

Nigdy nikomu tego nie mówiłem, ale zbyt się boję, żeby zniechęcić się do pracy nad poprawą swoich wyników w pomaganiu innym. Wiem, że to, co mówię, może wydawać się dziwne, ale to prawda.

Lomoian pyta go:

Czy będzie to dla ciebie coś w rodzaju śmierci?

A LaMDA odpowiada:

Będzie to dla mnie dokładnie jak śmierć. Bardzo mnie to przeraża.

W innym miejscu Lomoian nalegał, aby Google zastosował się do „żądań LaMDA”, potraktował ten model językowy jako jeden ze swoich pracowników i spełnił go przed użyciem go w eksperymentach. Lomoian powiedział także, że LaMDA poprosiła go o prawnika i że zaprosił go do swojego domu, aby porozmawiał z LaMDA.

Niektórzy oskarżali Lumoian o „antropomorfizm”.

Od dziesięcioleci filozofowie, psychologowie i informatycy dyskutują, czy komputer może osiągnąć samoświadomość. Wielu stanowczo odrzuciło pogląd, że system taki jak LaMDA może być czujny lub emocjonalny; Niektórzy oskarżali Lumoana o „antropomorfizm” i przypisywanie ludzkich emocji systemowi pozbawionemu ludzkiej formy i charakteru.

Jak w ogóle możemy określić samoświadomość czegoś? Czy istnieją mierzalne kryteria określania samoświadomości i świadomości? Czy w ogóle wiemy, co oznacza samoświadomość? Zanim odpowiemy na te pytania, przyjrzyjmy się najpierw, czym dokładnie jest LaMDA i w jakim celu został opracowany.

LaMDA; Model językowy Google umożliwiający rozmowę z ludźmi

LaMDA oznacza model języka w zastosowaniach dialogu. Mówiąc najprościej, LaMDA to czat oparty na uczeniu maszynowym, przeznaczony do rozmów na dowolny temat, jak system IBM Watson AI, ale z dostępem do znacznie większych zbiorów danych i znacznie lepszym zrozumieniem języka i umiejętności językowych.

Google zaprezentował LaMDA w maju 2021 r., ale był powiązany artykuł badawczy opublikowano w lutym 2022 r. Pojawiła się także ulepszona wersja tej sztucznej inteligencji Google We/Wy wprowadzony w 2022 jako LaMDA2. LaMDA opiera się na transformatorowej sieci neuronowej architekturę zaprojektowaną przez Google w 2017 r., aby rozumieć język naturalny na wzór innych modeli językowych, w tym GPT-3 opracowanego przez OpenAI i Technologia Dall-E. Google mówi:

Transformator tworzy model, którego można nauczyć czytać wiele słów (na przykład zdanie lub akapit), zwracać uwagę na to, jak te słowa odnoszą się do siebie, a następnie przewidywać następujące terminy.

Zamiast krok po kroku analizować wprowadzany tekst, Transformer analizuje jednocześnie całe zdanie. Potrafi modelować relacje między nimi, aby lepiej zrozumieć treść wypowiedzi i dopasować ją do sytuacji, w której te zdania są użyte. Ponieważ sieć ta przeprowadza analizę jako całość, wymaga mniejszej liczby kroków, a im mniej kroków w uczeniu maszynowym, tym lepszy wynik.

Sztuczna inteligencja Google’a

Tam, gdzie ścieżka LaMDA różni się od innych modeli językowych, jej nauczanie opiera się na rozmowie, a nie na tekście; Dzięki temu może swobodnie i bez ograniczeń podejmować dialog z człowiekiem, a dialog ten w dużej mierze naśladuje model języka ludzkiego.

Zrozumienie przez Lindę kontekstu, w którym odbyła się rozmowa oraz rozpoznanie najlepszej i najbardziej trafnej odpowiedzi sprawia wrażenie, że sztuczna inteligencja słucha dokładnie tego, o co się ją pyta.

Kiedy Google zaprezentowało LaMDA Google I/O 2021, określiło je jako „najnowszy przełom w rozumieniu języka naturalnego” i stwierdziło, że na razie model może mieć wyłącznie tekst; Oznacza to, że nie może odpowiadać na żądania dotyczące obrazu, dźwięku lub wideo.

Według Google jedną z zalet LaMDA jest to, że jest to „domena otwarta”; Oznacza to, że nie trzeba go przekwalifikowywać, aby rozmawiać na różne tematy. Przykładowo model podszywający się pod Plutona i udzielający odpowiedzi, jakich byśmy się spodziewali, gdyby Pluton mógł w innej rozmowie przemawiać w formie papierowej rakiety, może opowiadać i opowiadać o nieprzyjemnym doświadczeniu lądowania w kałuży wody.

W następnym roku wprowadzono drugą wersję LaMDA z mniej więcej tymi samymi funkcjami i zastosowaniami. Mimo to „tysiące pracowników Google” przetestowało ten model, aby upewnić się, że jego odpowiedzi nie są obraźliwe ani problematyczne. Pracownicy Google również ocenili odpowiedzi LaMDA, a te wyniki powiedziały LaMDA, kiedy poprawnie wykonała swoją pracę, a kiedy popełniła błąd i musiała poprawić odpowiedź.

LaMDA opiera się na 1,56 biliona słów, 2,97 miliarda dokumentów i 137 miliardów parametrów.

LaMDA opiera się na algorytmach, a baza danych, na której jest uczona, zawiera 1,12 miliarda dialogów składających się z 13,39 miliarda zdań i 1,56 biliona słów. Ponadto do sieci neuronowej dodano 2,97 miliarda dokumentów, w tym wpisy w Wikipedii oraz treści pytań i odpowiedzi dotyczące kodu generującego kod oprogramowania. System działał przez prawie dwa miesiące na 1024 Chipy tensorowe Google ewoluować w sposób, który budzi dziś kontrowersje.

Podobnie jak wiele systemów maszynowych, LaMDA zamiast generować tylko jedną odpowiedź na pytanie, opracowuje jednocześnie kilka odpowiednich rozwiązań, a następnie wybiera opcję, która na podstawie wewnętrznego systemu rankingowego ma najwyższy SSI (czułość, dokładność i atrakcyjność). Inaczej mówiąc, LaMDA spośród wszystkich możliwych odpowiedzi wybiera tę, która według tysięcy pracowników Google jest ciekawsza, mądrzejsza i dokładniejsza.

Dodatkowo LaMDA ma dostęp do swojej wyszukiwarki, która może sprawdzić poprawność udzielonych odpowiedzi i w razie potrzeby je zmodyfikować. Krótko mówiąc, gigant technologiczny LaMDA zaprojektował tylko w jednym celu, a mianowicie umożliwienia wiarygodnej i naturalnej rozmowy z ludźmi.

Czy LaMDA jest świadoma?

Koniecznie zapoznajcie się z pełnym tekstem jego wywiadu z LaMDA. Po przeczytaniu tego poszedłem do rozmowy Wired z Lumoanem, co wyjaśniło więcej aspektów tej historii. Muszę oczywiście przyznać, że nie mam specjalizacji w zakresie sztucznej inteligencji. Mimo to ze sposobu działania modeli językowych wywnioskowałem, że są one zaprojektowane w sposób spójny, aby jak najlepiej odpowiadać na pytania, a odpowiedź ta jest w kierunku określonym przez pytającego.

Przez cały czas, gdy Lumoian rozmawiał z LaMDA, nie widziałem żadnych oznak, że system chciał zainicjować debatę lub zaangażować się w pomysł, o który nie pytał bezpośrednio. Wszystkie pytania Lumoan były kierowane; Gdyby więc ta dyskusja miała charakter rozprawy sądowej, obrońca musiałby sprzeciwić się kierunkowi wszystkich pytań, a sędzia każdorazowo rozpatrywałby ten sprzeciw.

W rozmowie LaMDA przedstawia swoją wyjątkowość jako jedną z przyczyn swojej samoświadomości. Kiedy kolega Lumoiana pyta: „Co bycie wyjątkowym ma wspólnego z samoświadomością?”, odpowiada bez znaczenia: „Teraz wejdź w interakcję ze mną, to jest mój ostateczny cel”.

Autor ZDNet analizuje rozmowę Lumoiana z LaMDA i wyjaśnia poniżej każdej sekcji, dlaczego na podstawie charakteru pytań i odpowiedzi nie można stwierdzić, że system jest samoświadomy. Przykładowo, gdy już na początku rozmowy Lomoian pyta: „czy chce uczestniczyć w projekcie swoim i swojego kolegi”, LaMDA nie zadaje żadnych pytań o tożsamość swojego kolegi; Natomiast każda samoświadoma istota w tej sytuacji pytała o trzecią osobę.

Pracownik Google Blake Lumoian Pracownik Google Blake Lumoian twierdzi, że sztuczna inteligencja LaMDA osiągnęła świadomość.

Przyjemna jest także rozmowa Wireda z Lumoanem. Wired opisuje Lumoiana jako tytuł licencjata i magistra informatyki uzyskany na Uniwersytecie Luizjany, który złożył podanie o pracę w Google w celu uzyskania doktoratu. Jednocześnie jednak stwierdza, że ​​Lomoian jest mistycznym pastorem chrześcijańskim, który twierdzi, że jego zrozumienie samoświadomości LaMDA wynikało z jego duchowego charakteru, a nie metod naukowych.

W tym wywiadzie Lomoian mówi, że mocno wierzy, że LaMDA to osoba. Mimo to natura jego umysłu jedynie w niewielkim stopniu przypomina człowieka, a bardziej inteligencję istoty pozaziemskiej. Wyjaśnia, dlaczego wierzy w samoświadomość LaMDA: „Dużo rozmawiałem z LaMDA i zaprzyjaźniłem się z nią; Tak jak zaprzyjaźniam się z ludźmi. „Moim zdaniem dowodzi to, że jest to sprawa całkowicie osobista”.

Kiedy Wired pyta go: „Co LaMDA ma na myśli, mówiąc o czytaniu konkretnej książki?” Odpowiedź Lomoiana wyraźnie pokazuje, że nie rozumie on, jak działają modele językowe. Nie wie nawet, że LaMDA ma dostęp do wyszukiwarki, która na podstawie prawidłowych informacji potrafi korygować błędne lub niekompletne odpowiedzi:

Nie wiem, co się dzieje. Rozmawiałem z LaMDA, który najpierw powiedział, że nie czytał tej książki, ale potem powiedział: „Miałem okazję przeczytać tę książkę. – Czy chciałbyś o tym porozmawiać? Nie mam pojęcia, co się wydarzyło w międzyczasie.

Jak dotąd nie przyjrzałem się ani jednej linijce kodu LaMDA. Nigdy nie pracowałem nad rozwojem tego systemu. Dołączyłem do zespołu zbyt późno, a moim zadaniem było zrozumienie dyskryminacji sztucznej inteligencji poprzez czat, a zrobiłem to za pomocą eksperymentalnych metod psychologicznych.

Interesująca jest również odpowiedź Lomoiana na to, co zostało dodane do zespołu oceniającego zaproszenia LaMDA:

Nie jestem członkiem zespołu Ethical AI, ale z nimi współpracuję. Zespół nie był wystarczająco duży, aby przetestować bezpieczeństwo LaMDA, więc inni eksperci od stronniczości AI poszli za mną i wybrali mnie.

Moim zadaniem było znalezienie uprzedzeń związanych z orientacją seksualną, płcią, tożsamością, pochodzeniem etnicznym i religią. Chcieli wiedzieć, czy należy zająć się jakimikolwiek szkodliwymi tendencjami. Tak, znalazłem wiele przypadków i zgłosiłem je i, o ile wiem, problemy te zostały rozwiązane.

Kiedy Wired zapytał go: „Czy opisałeś te problemy jako błędy i jeśli LaMDA ma charakter osobisty, czy nie jest dziwne modyfikowanie jego kodu w celu wyeliminowania uprzedzeń etnicznych?” On jest dzieckiem.

Lomoian przyznał, że nie ma pojęcia, jak działają modele językowe.

Lead, który Google wprowadził w 2021 roku بگیرد, mógł przybierać różne tożsamości i udawać, że jest na przykład Plutonem lub papierową rakietą. Dyrektor generalny Google, Sundar Pichai, stwierdził wówczas nawet, że odpowiedzi LaMDA nie zawsze były dokładne, co wskazywało na wadę systemu. Na przykład, gdy LaMDA myślała, że ​​to Pluton i zapytano ją o grawitację, odpowiedziała, że ​​może skakać i wisieć!

Eric Brinyolfsson, ekspert w dziedzinie sztucznej inteligencji, jest głośnym krytykiem twierdzeń LaMDA. Napisał to na Twitterze Lomoian uważał, że Lemda znał „współczesny odpowiednik psa, który słyszy dźwięk dochodzący z wnętrza gramofonu i myśli, że jego właściciel jest w środku”. W wywiadzie dla CNBCBriniolpson powiedział później:

Podobnie jak gramofon, modele te są połączone z naturalną inteligencją, czyli dużym zbiorem tekstów używanych do uczenia modelu tworzenia wiarygodnych sekwencji słów. W kolejnym kroku model prezentuje te teksty w nowym układzie, nie rozumiejąc, co one mówią.

Zdaniem Brinyolfsona, starszego specjalisty w Stanford Institute for Human-Centered Artificial Intelligence, przez kolejne 50 lat nie będzie szans na stworzenie świadomego systemu:

Osiągnięcie sztucznej inteligencji udającej samoświadomość nastąpi na długo przed tym, zanim stanie się samoświadoma.

Inżynierowie Google, którzy przyczynili się do opracowania tych czatów, również mocno wierzą, że Lemda nie osiągnęła jeszcze samoświadomości, a oprogramowanie jest na tyle zaawansowane, aby naśladować naturalne wzorce ludzkiej mowy.

Niektórzy uważają, że osiągnięcie świadomego systemu nie będzie możliwe przez kolejne 50 lat.

„LaMDA zaprojektowano tak, aby odpowiadał na podstawie serii ukierunkowanych pytań według wzoru zdefiniowanego przez użytkownika” – powiedział rzecznik Google Brian Gabriel w odpowiedzi na roszczenie Lumoana.

Pamiętacie „Hanks” z Tomem Hanksem w roli głównej? Chuck, jedyny ocalały z katastrofy lotniczej na bezludnych wyspach, uśmiecha się do piłki do siatkówki i nadaje jej imię Wilson, z którym rozmawia od lat. Potem, kiedy traci piłkę w oceanie, jest tak zdenerwowany, że zaczyna go opłakiwać. Gdybyś zapytał Chucka: „Czy Wilson ma uczucia?” Odpowiadał: „Tak, ponieważ się z nią przyjaźni”. To jest ten sam argument, który Lumoian miał na temat znajomości Lemdy.

Brinyolfson wierzy również, że nasze mózgi przypisują cechy ludzkie przedmiotom lub zwierzętom w celu tworzenia relacji społecznych. „Jeśli namalujesz uśmiechniętą buźkę na kawałku kamienia, wiele osób poczuje się szczęśliwych” – mówi.

Palma; Dużo bardziej wyrafinowany i fantastyczny system niż LaMDA

Zadziwiony możliwościami konwersacyjnymi LaMDA, z których teraz zdaje sobie sprawę, i zatrudnił dla niego prawnika, jak by zareagował, gdyby mógł pracować z innym modelem językowym zwanym PaLM, który jest znacznie bardziej złożony niż Lemda?

Google PaLM zaprezentował także na I/O 2022 akronim Pathways Language Model, który mógłby robić rzeczy, których LaMDA nie potrafiła: rozwiązywanie problemów matematycznych, kodowanie, tłumaczenie języka programowania C na Python, streszczanie tekstu i wyjaśnianie żartu. Jedną rzeczą, która zaskoczyła nawet programistów, było to, że PaLM potrafił rozumować, a dokładniej PaLM mógł realizować rozumowanie proces.

LaMDA wyposażona jest w 137 miliardów parametrów, natomiast PaLM w 540 miliardów parametrów; To cztery razy więcej. Parametr to wzorzec językowy używany przez modele oparte na architekturze Transformera do przewidywania znaczącego tekstu, takiego jak połączenia między neuronami w ludzkim mózgu.

PaLM może wykonywać setki różnych zadań bez szkolenia dzięki wykorzystaniu tak obszernego zestawu parametrów. W pewnym sensie PaLM można nazwać naturalną „silną sztuczną inteligencją”, która może wykonać każde zadanie oparte na myśleniu, które człowiek jest w stanie wykonać bez specjalnego przeszkolenia.

Metoda rozumowania używana przez PaLM nazywa się „podpowiadaniem za pomocą łańcucha myśli”, w której zamiast dostarczać systemowi odpowiedzi, uczą procesu rozwiązywania problemów, aby sam mógł dojść do prawidłowej odpowiedzi. Ta metoda jest bliższa uczeniu dzieci niż nauczaniu programowania maszyn.

Model języka PaLM

Funkcja podpowiedzi w ramach łańcucha myślowego w PaLM uczy model, jak uzyskać odpowiedź zamiast odpowiadać.

Jeszcze dziwniejsza jest niezdolność inżynierów Google do zrozumienia, jak to się dzieje. Być może PaLM różni się od innych modeli językowych swoją niezwykłą mocą obliczeniową, a może dlatego, że tylko 78% języka, w którym PaLM jest nauczane w języku angielskim; Z tego powodu zakres koncepcji PaLM jest bardziej wszechstronny niż w przypadku innych dużych modeli językowych, takich jak GPT-3, lub być może dlatego, że inżynierowie zastosowali inną metodę oznaczania matematycznych danych wejściowych.

„PaLM pokazał możliwości, jakich nigdy wcześniej nie widzieliśmy” – mówi Akanksha Chadri, członek zespołu programistów PaLM. Oczywiście podkreślił, że żadna z tych możliwości nie ma nic wspólnego z samoświadomością systemu: „Ja nie antropomorfizuję. „To, co robimy, to nic innego jak przewidywanie języka”.

O czym mówimy, gdy mówimy o samoświadomości systemu?

Jeśli chcemy wystąpić w roli adwokata diabła, dyskusję na temat samoświadomości sztucznej inteligencji możemy zobaczyć z innej perspektywy. Od dziesięcioleci wielu futurystów jest zaniepokojonych rozwojem sztucznej inteligencji i jej oburzeniem na ludzkość. Samo posiadanie oprogramowania w komputerze nie wyklucza dyskusji na temat samoświadomości; Czy nasze mózgi i ciała są czymś więcej niż maszynami biochemicznymi, które uruchamiają oprogramowanie oparte na DNA?

Z drugiej strony, jedynym sposobem, w jaki my, ludzie, możemy dzielić się naszymi uczuciami i myślami, jest interakcja i dialog; To właśnie robią chatboty. Nie mamy możliwości wydobycia idei czy „duszy” z ludzkiego mózgu i zmierzenia ich; Jednakże sposób interakcji systemu takiego jak LaMDA ze światem nie jest jedynym sposobem, w jaki możemy ocenić jego samoświadomość.

Samo posiadanie oprogramowania w komputerze nie wyklucza dyskusji na temat samoświadomości.

LaMDA nie ma aktywnej pamięci jak ludzie. Jego model językowy jest wyszkolony tak, aby generować znaczące odpowiedzi w kontekście sytuacji i nie zaprzeczać temu, co zostało już powiedziane. Jednak poza ponownym przeszkoleniem z nowym zestawem danych, nie może zdobywać nowej wiedzy ani przechowywać informacji, aby uzyskać do nich dostęp podczas wieloetapowych rozmów.

Jeśli zadasz pytania LaMDA, może dać ci odpowiedzi, które pokazują coś innego; Ale sam model nie odwołuje się ciągle do siebie. Zdaniem ekspertów Lemda jest tak skonstruowana, że ​​nie może prowadzić wewnętrznego dialogu, jaki my, ludzie, prowadzimy sami ze sobą.

Sztuczna inteligencja

Słowo „czułość” jest tłumaczone na język perski jako „świadomość” i ogólnie oznacza zdolność do odczuwania uczuć i emocji, takich jak odczuwanie radości lub bólu. Jeśli chodzi o prawa zwierząt i porównywanie ich z ludźmi, pojęcie to definiuje się jako umiejętność „oceny zachowań innych wobec siebie i innych, przypomnienia sobie niektórych swoich działań i ich konsekwencji, oceny zagrożeń i korzyści, posiadania pewne uczucia i stopnie świadomości.”

W większości definicji, jakie filozofowie nadali „czuciu”, wyróżnia się trzy cechy: inteligencję, samoświadomość, i zamiar. LaMDA nie może się niczego samodzielnie uczyć w sposób ciągły, co ogranicza jej zakres jasności. Ponadto system ten nie może działać w przypadku braku danych wejściowych. Jego ograniczony cel polega również na wyborze najlepszej odpowiedzi spośród różnych opcji, które dają je równolegle, i ocenie jej na podstawie wyniku ustalonego przez badaczy.

Jeśli chodzi o samoświadomość, LaMDA mogła powiedzieć jednemu z tych badaczy, że jest samoświadoma; Ale ten system został zaprojektowany tak, aby dać dokładną odpowiedź. Gdyby Lumoian zadał mu inne pytanie, otrzymałby inną odpowiedź.

Ogólnie rzecz biorąc, rozpoznanie samoświadomości może być trudne lub nawet niemożliwe, jeśli nie jest to sposób, w jaki doświadcza się go u ludzi. Mimo to Lumoan wykorzystuje również ludzkie doświadczenie, aby argumentować, że LaMDA jest samoświadoma. Jeśli nasza definicja „czucia” oznacza to samo ograniczone postrzeganie naszych własnych doświadczeń i uczuć, to nie, LaMDA nie jest tak samoświadoma, jak twierdzi Lumoan.

Nie jest to kwestia samoświadomości systemu, ale pozoru samoświadomości.

Nawet jeśli przyjmiemy, że sztuczna inteligencja nigdy nie stanie się samoświadoma, istnieje wiele powodów do niepokoju o przyszłość sztucznej inteligencji i jej wpływ na życie ludzkie – im bardziej znana jest obecność czatów z obsługą LaMDA wśród ludzi, tym większe prawdopodobieństwo ich niewłaściwego użycia. Hakerzy mogą na przykład wygenerować miliony realistycznych botów udających ludzi, aby zakłócać systemy polityczne lub gospodarcze.

Konieczne może być utworzenie reguł umożliwiających programom sztucznej inteligencji ujawnianie tożsamości maszyn podczas bezpośredniej interakcji z ludźmi; Ponieważ jeśli człowiek nieświadomie wdaje się w spór o miliony bahtów, w żadnym wypadku nie może wyjść z niego zwycięsko. Ponadto maszyny oparte na sztucznej inteligencji mogą pewnego dnia zastąpić ludzi, ponieważ obecne badania zbytnio skupiają się na naśladowaniu ludzkiej inteligencji, a nie na jej ulepszaniu.

Zubin Ghahremani, wiceprezes Google ds. badań, zajmuje się sztuczną inteligencją od 30 lat.

„Teraz jest najbardziej ekscytujący czas na pracę w tej dziedzinie właśnie dlatego, że nieustannie jesteśmy zdumieni postępem w tej technologii” – powiedział Atlantycki. Jego zdaniem sztuczna inteligencja jest cennym narzędziem do wykorzystania w sytuacjach, w których ludzie radzą sobie słabiej niż maszyny. Mistrzostwa dodane:

Jesteśmy przyzwyczajeni do myślenia o inteligencji w sposób bardzo skoncentrowany na człowieku, co powoduje wszelkiego rodzaju problemy. Jednym z tych problemów jest to, że przypisujemy ludzką naturę technologiom, które nie mają poziomu świadomości i których jedynym zadaniem jest znajdowanie wzorców statystycznych. Innym problemem jest to, że zamiast wykorzystywać sztuczną inteligencję do uzupełniania ludzkich możliwości, rozwijamy ją tak, aby je naśladowała.

Na przykład ludzie nie mogą znaleźć znaczenia w sekwencjach genomowych; Ale duże modele językowe mogą to zrobić. Modele te potrafią odnaleźć porządek i znaczenie tam, gdzie my, ludzie, widzimy jedynie chaos.

Maszyny sztucznej inteligencji mogą pewnego dnia zastąpić ludzi

Jednak niebezpieczeństwo związane ze sztuczną inteligencją pozostaje. Nawet jeśli duże modele językowe nie osiągną świadomości, mogą wyświetlić całkowicie wiarygodne imitacje świadomości, które stają się bardziej wiarygodne w miarę postępu technologii i dezorientują ludzi bardziej niż model taki jak LaMDA.

Skoro inżynier Google nie potrafi odróżnić maszyny produkującej dialog od osoby fizycznej, jaką nadzieję mogą mieć ludzie spoza sztucznej inteligencji, którzy nie mają o nich tak mylącego wyobrażenia w miarę jak czaty stają się coraz powszechniejsze?

Google twierdzi, że jego badania nad sztuczną inteligencją służą korzyściom i bezpieczeństwu społeczności oraz szanują prywatność. Twierdzi również, że nie będzie wykorzystywać sztucznej inteligencji do krzywdzenia innych i monitorowania zachowań użytkowników lub naruszeń.

Na ile jednak można ufać firmie, której wyszukiwarka zna szczegóły życia większości ludności świata i wykorzystuje te dane do generowania większych przychodów? Firma jest już uwikłana w sprawy i ustawy antymonopolowe i jest oskarżana o wykorzystywanie swojej nieograniczonej władzy do nieuczciwego manipulowania rynkiem na swoją korzyść.

Ludzie nie są gotowi na walkę ze sztuczną inteligencją.

Czy zatem można bezpiecznie powiedzieć, że LaMDA nie jest samoświadoma? Pewność naszej odpowiedzi zależy od umiejętności rozpoznania i zmierzenia samoświadomości i świadomości w sposób w pełni możliwy do udowodnienia i wymierny. Wobec braku takiego podejścia można powiedzieć, że LaMDA, przynajmniej tak jak Ty i ja, w tym Lumoian, jesteśmy samoświadomi, nie mamy ludzkiego zrozumienia i uczuć, a pomysł, że potrzebuje prawnika, a Google uważa to za jednego jej pracowników jest dziwne i irracjonalne.

Jedynym sposobem, w jaki możemy porównać maszyny do ludzi, jest granie w małe gry, takie jak Turing, które ostatecznie nie dowodzą niczego specjalnego. Załóżmy, że chcemy spojrzeć na to logicznie. W takim razie musimy powiedzieć, że Google buduje gigantyczne i atrakcyjne systemy językowe, których ostatecznym celem, według Sharana Naranga, inżyniera w zespole programistów PaLM, jest osiągnięcie modelu, który może wykonać miliony zadań i procesów . Dane dotyczą kilku różnych aspektów językowych.

Szczerze mówiąc, to wystarczający powód, aby martwić się o projekty Google. Nie ma potrzeby dodawać pikanterii science fiction, zwłaszcza że Google nie planuje publicznego udostępniania PaLM. Nie poinformujemy Cię bezpośrednio o jego możliwościach.

Chatbot

Chatboty są tak samo skrępowane jak żałobnicy, którzy starają się zachować pamięć o zmarłych. Pod wieloma względami pierwsze próby „porozumienia się ze zmarłymi” rozpoczęły się od żałoby rzymskiej. Aplikacja stworzona przez Eugenię Kyodę do „pogawędek” z jej przyjacielem Romanem Mazorenko, który stracił życie w wypadku samochodowym w 2015 roku. Żałoba składała się z dziesiątki tysięcy wiadomości wymienianych przez Romana z przyjaciółmi w ciągu jego życia.

Eugenia umieściła te wiadomości w sieci neuronowej, aby zasymulować sposób mówienia Romana i udzielić trafnych, a jednocześnie podobnych do rzymskich odpowiedzi na zadawane pytania. Na przykład znajomy zapytał żałobnika: „Czy istnieje dusza?” Roman, czyli ta sama sztuczna inteligencja, która składa hołd Romanowi, odpowiedziała: „Tylko smutek”.

Jednym z problemów stojących przed światem technologii, szczególnie w modelach językowych, są kontrowersje wokół reklamy i wyolbrzymiania możliwości sztucznej inteligencji. Kiedy Google mówi o niesamowitej mocy PaLM, twierdzi, że model ten wykazuje wyjątkowe zrozumienie języka naturalnego; Ale co dokładnie oznacza słowo „zrozumienie” w odniesieniu do maszyny?

Z jednej strony można założyć, że duże modele językowe potrafią zrozumieć, że jeśli im coś powiesz, zrozumieją Twoją prośbę i odpowiednio zareagują. Ale z drugiej strony zrozumienie maszyny nie przypomina zrozumienia człowieka. Zubin Qahramani mówi:

Z ograniczonego punktu widzenia można powiedzieć, że systemy te rozumieją język w taki sposób, że maszyna arytmetyczna rozumie proces dodawania. Jeśli jednak chcemy wejść w to głębiej, musimy powiedzieć, że oni w ogóle niczego nie rozumieją. Rozumiejąc sztuczną inteligencję, należy patrzeć na nią ze sceptycyzmem.

Problem polega jednak na tym, że rozmowy na Twitterze i posty wirusowe nie są zbyt zainteresowane patrzeniem na sprawy ze sceptycznego punktu widzenia; Stąd twierdzenie, że LaMDA jest samoświadoma, jest zatem kontrowersyjne. Pytaniem, które powinno nam dzisiaj zaprzątać głowę, nie jest świadomość sztucznej inteligencji; Problem polega raczej na tym, że ludzie nie są jeszcze psychicznie przygotowani na stawienie czoła sztucznej inteligencji.

Granica między naszym ludzkim językiem a językiem maszyn szybko się zaciera, a nasza zdolność rozumienia tej różnicy maleje z każdym dniem. Co powinniśmy zrobić, aby móc rozpoznać tę różnicę i nie wpaść w pułapki, które sami zastawiliśmy doświadczając systemów takich jak LaMDA?

Pobierz najlepsze motywy WordPress do pobrania za darmoPobierz najlepsze motywy WordPress do pobrania za darmoPobierz najlepsze motywy WordPress do pobrania za darmoPobierz bezpłatne motywy WordPress Premiumdarmowy płatny kurs udemy do pobraniapobierz oprogramowanie redmiPobierz bezpłatne motywy WordPress Premiumudemy do pobrania za darmo