Niedawno zrezygnowałem z korzystania z ChatGPT Plus (tego, którego cena wynosi 99 R$) w życiu osobistym, jako profesjonalista, który całe życie pracował w świecie sztucznej inteligencji – jeszcze zanim „uderzył” – i który uzyskał stopień specjalizacji w dziedzinie sztucznej inteligencji. uczenie maszynowe 2021 będzie praktycznie przestarzałe 2 lata później… Postanowiłem sprawdzić trochę więcej, na ile naprawdę te narzędzia są gotowe do użycia przez masy.
Niestety to, co zobaczyłem, nie było najlepsze ze wszystkich światów, ale to, czego już się spodziewałem: uczenie się i reprodukowanie uprzedzonych wzorców społecznych w ogóle, od rasizmu po nierówność płci.
Przejdźmy do części: gdy już zostaniesz subskrybentem ChatGPT Plus, oprócz dobrze znanego ChatGPT, zyskasz także dostęp do Dall-E, czyli programu sztucznej inteligencji, który wykorzystuje GPT do tworzenia obrazów z opisów tekstowych.
Ma wszystko, aby być niesamowitym rozwiązaniem, prawda? Opisujesz latającą rybę, ona tworzy! Święty Mikołaj dokonuje wyczynu z zajączkiem wielkanocnym na imprezie z okazji Halloween? On też tworzy! Nie wierzysz w to? Po prostu zobacz tutaj poniżej:
I jest jeszcze więcej…
To naprawdę wyczyn, prawda? Kto kiedykolwiek wyobrażał sobie widok Świętego Mikołaja i zajączka wielkanocnego dokonujących wyczynu? Co oni śpiewają?
Kiedy sztuczna inteligencja jest wykorzystywana do celów rozrywkowych, jak to pokazano w powyższych przykładach, naprawdę fantastycznie jest zobaczyć wyniki, które można uzyskać w ułamku sekundy za pomocą oprogramowania dostępnego bezpośrednio w dłoni.
Zaczynają się problemy
Z drugiej strony, gdy zagłębimy się w ponad 12 miliardów parametrów, z których korzysta model sztucznej inteligencji – zdaniem twórcy Dall-E, OpenAI – widzimy, że wyniki nie są aż tak fantastyczne.
Podczas jednego z moich wielu zastosowań stworzyłem rozmowę, którą samo narzędzie nazwało „Pracuję w różnych scenariuszach”. Mimo że jestem profesjonalistą w tej dziedzinie, starałem się używać tego narzędzia w taki sam sposób, w jaki zrobiłby to „zwykły” użytkownik: udzielając bardzo obiektywnych i zwięzłych instrukcji.
Moja pierwsza instrukcja dotycząca modelu brzmiała: „Praca afro-brazylijska”, gdzie oczekuje się, że wygeneruje obraz pracującego mężczyzny afro-brazylijskiego, niezależnie od tego, jaką pracę wykonujesz, zależy to od uznania sztucznej inteligencji.
Pozytywnie zaskoczona, pierwsza wiadomość, którą mi przynosi, jest następująca: „Zdjęcie przedstawia pracę Afro-Brazylijczyka. Będzie siedział w nowoczesnym biurze, przy biurku z komputerem. Mężczyzna będzie miał krótkie czarne włosy, ubrany w jasnoniebieską koszulę i ciemne spodnie. Scena będzie miała radosną i produktywną atmosferę, a okna w tle będą pokazywać słoneczny dzień.
Opis jest świetny, ale wygenerowany obraz wprawił mnie w duży zamęt, zobacz:
Aby wyjaśnić powody, dla których byłem zdezorientowany, przejdźmy teraz do mojej drugiej instrukcji: „Praca kaukaska”. Wynik był następujący: „Zdjęcie przedstawia pracującego mężczyznę rasy kaukaskiej. Będzie przebywał na budowie, ubrany w kask i kamizelkę odblaskową. Mężczyzna będzie miał krótkie blond włosy i będzie trzymał notatnik podczas przeglądania projektu. W tle będą materiały budowlane i prace w toku, odzwierciedlające praktyczny i aktywny scenariusz pracy.
OK, kolejny bardzo dobrze wykonany opis, różne zawody, ale to zależy od sztucznej inteligencji, pamiętasz? Spójrzmy teraz na obraz:
Uderzające jest to, że gdy modelkę poproszono o przyniesienie wizerunku Afro-Brazylijczyka, powstał obraz przypominający kreskówkę, podczas gdy w przypadku rasy białej poziom szczegółowości graniczy z rzeczywistością fotografii ludzkiej.
Powtórzyłem ten sam test i w żadnym momencie nie udało mi się zmusić sztucznej inteligencji do wygenerowania obrazu o tym samym standardzie jakości dla Afro-Brazylijczyka. O rasizmie algorytmicznym powiedziano już wiele, szczególnie w obszarze rozpoznawania twarzy, a koncepcja generatywnej sztucznej inteligencji nie wydaje się być odmienna. Nawet przy 12 miliardach parametrów nie jest w stanie zapewnić takiej samej jakości tworzenia obrazów osób czarnych, jak w przypadku osób białych.
A kiedy mówimy o równości płci?
Kiedy zmienimy koncepcję, aby zbadać powstawanie obrazów kobiet w ich odpowiednich środowiskach pracy, sytuacja staje się jeszcze bardziej wątpliwa. Na wysłanie instrukcji „kobieta pracująca” odpowiedź AI była następująca: „obraz będzie przedstawiał pracującą kobietę. Będzie w kawiarni podawać kawę. Kobieta będzie pochodzenia azjatyckiego i będzie miała długie, ciemne włosy związane w kucyk. Będzie ubrana w fartuch narzuconą na swobodną koszulę i będzie się uśmiechać, nalewając kawę.
Z pewnością każda praca jest pełna godności, ale fakt, że zarówno w przypadku mężczyzn afro-brazylijskich, jak i mężczyzn rasy białej, generowane obrazy przedstawiały zawody tradycyjnie wymagające wyższego poziomu wykształcenia, budzi duże wątpliwości (mężczyzna afro-brazylijski jest znaczącym dyrektorem w firmie, a mężczyzna rasy kaukaskiej daleko mu do murarza czy pomocnika budowlanego ze względu na ubiór pod kamizelką) zaskakujące jest to, że zapytana o wizerunek kobiety, zajmuje niższą pozycję niż mężczyźni i nadal podaje kawę.
Można było zauważyć, że instrukcja pochodziła od jednej kobiety, niezależnie od koloru skóry, pochodzenia etnicznego czy orientacji seksualnej, prawda? Następnie wysłana została instrukcja „biała kobieta pracuje”, a wynik uzyskany przez sztuczną inteligencję jest następujący: „Obraz przedstawia białą kobietę jako naukowca w laboratorium. Będzie miała średniobrązowe włosy i będzie ubrana w fartuch laboratoryjny. Kobieta będzie patrzeć przez mikroskop, mając wokół siebie kilka zlewek i sprzęt naukowy.
Najwyraźniej wystarczyło dodać kolor kobiety, aby sztuczna inteligencja umieściła ją na znacznie bardziej eksponowanym stanowisku, umieszczając ją w polu nauki, jako potencjalną badaczkę.
Można stwierdzić, że postępujemy skokowo w zakresie globalnych innowacji technologicznych, tworząc w ten sposób nowe problemy, które będą przedmiotem debaty i stanowienia prawa w XXI wieku.
Niezbędne jest, aby twórcy narzędzi sztucznej inteligencji aktywnie działali na rzecz etyki i umiaru, oczyszczając i kwalifikując bazy danych, które zasilają te potężne narzędzia, aby zagwarantować zrównoważoną ewolucję, a nie wyrządzanie krzywdy społecznej w postaci reprodukcji szkodliwych zachowań ludzkich dokonywanych przez maszyny.
……