Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

Dlaczego nie powinniśmy ignorować etyki w dziedzinie sztucznej inteligencji?

Większość profesjonalistów wkraczających w świat sztucznej inteligencji rozpoczyna karierę jako programista komputerowy i pozostaje w tym zawodzie przez długi czas.

Eksperci uważają jednak, że dzisiejsze inteligentne maszyny są na tyle zaawansowane, że potrafią zrozumieć stan emocjonalny, a nawet kłamać poprzez analizę ludzkiej twarzy, co jest istotną kwestią dla wydawców reklam i różnych organizacji.

Obecnie informatycy budują systemy operacyjne kontrolujące to, co miliard ludzi widzi każdego dnia, budują samochody, które decydują o sposobie poruszania się po ulicach, i budują broń, która może inteligentnie strzelać do przestępców. Zdaniem części ekspertów podejścia te wskazują na moralny upadek technologii.

Jednak niektórzy inni użytkownicy uważają, że jest to po prostu inteligencja maszyny. Używamy obliczeń, które organizują i kształtują wszystkie nasze decyzje. Co ciekawe, w niektórych przypadkach udzielają odpowiedzi, które nie są konkretne i mają charakter bardziej subiektywny.

Pytamy, kogo firma powinna zatrudnić, która osoba powinna odpowiedzieć na zaproszenie do znajomych, która osoba ma twarz bardziej przypominającą przestępcę, który fragment wiadomości lub filmu warto polecić i tak dalej.

Używamy komputerów od dłuższego czasu, ale tym razem jest inaczej.

Jest to historyczne odwrócenie, ponieważ nie możemy przeprowadzać obliczeń w przypadku decyzji subiektywnych, takich jak metoda obliczeniowa latania samolotami, budowa mostów i tym podobne przykłady. Czy samoloty są bezpieczne, czy ten most się zawali? Zgadza się, zgodziliśmy się na jasne kryteria i kierujemy się prawami natury.

Staramy się tworzyć potężniejsze oprogramowanie do wykonywania bardziej złożonych zadań, ale dzięki temu oprogramowanie jest bardziej przejrzyste ze względu na mniejszą złożoność. W ciągu ostatniej dekady skomplikowane algorytmy zostały opracowane skokowo.

Potrafią rozpoznawać ludzkie twarze, rozpoznawać pismo odręczne, wykrywać oszustwa związane z kartami kredytowymi i blokować spam, a także tłumaczyć języki. Potrafią wykryć nowotwory na obrazach medycznych lub w grach w szachy i Go.

Większość tych postępów pochodzi z metody zwanej nauczanie maszynowe. System ten uczy się poprzez krążenie informacji. Uczenie maszynowe różni się od tradycyjnego programowania, w którym podajesz komputerowi szczegółowe i precyzyjne instrukcje. To bardziej tak, jakbyś miał system i mnóstwo nieustrukturyzowanych informacji, takich jak te, które generujemy w naszym cyfrowym życiu.

Problem w tym, że systemy te nie dostarczają tylko jednej logicznej odpowiedzi; w większości przypadków nie daje prostego rozwiązania. Systemy te działają głównie w oparciu o prawdopodobieństwo.

Menedżer systemów sztucznej inteligencji w Google określił tę koncepcję jako irracjonalny efekt informacji. Niezbyt wspaniałe jest to, że nie rozumiemy, czego uczy się plan.

To jest moc uczenia maszynowego.

Jest to główny problem inteligentnych systemów. Mniej przypomina to wydawanie instrukcji komputerowi, a bardziej przypomina uczenie żywej maszyny. Nie rozumiemy i nie mamy wpływu. Jest to problem, który powoduje sztuczna inteligencja system uczy się błędnie i dopóki nie nauczy się poprawnie, nadal nie potrafimy dokładnie opisać, jak to robi. Nie wiemy, co myśli inteligentna maszyna.

Wyobraź sobie algorytm rekrutacji z systemem, który zatrudnia ludzi za pomocą nauczanie maszynowe system. System, który szkoli się na podstawie informacji od poprzednich pracowników i instruuje, jak znaleźć i zatrudnić osoby o wysokiej produktywności dla firmy. Wygląda dobrze. Menedżerowie HR i kadra kierownicza korzystająca z tych systemów do rekrutacji byli bardzo podekscytowani. Myśleli, że dzięki takiemu podejściu zatrudnianie będzie bardziej ukierunkowane i mniej stronnicze, co da ludziom większe szanse na zatrudnienie bez uprzedzeń ze strony menedżerów HR.

Jednakże systemy te stopniowo stają się coraz bardziej złożone. Systemy komputerowe mogą teraz dowiedzieć się o Tobie wszystkiego za pomocą cyfrowych fragmentów informacji, nawet jeśli tego nie ujawniłeś. Będą mieli dostęp do twoich tendencji społecznych, cech osobistych i wiedzy, a także osiągnęli moc przewidywania z dużą dokładnością. Co ciekawe, potrafią wyciągać wnioski i wnioski z rzeczy, których nawet nie ujawniłeś.

Na przykład niektórzy twórcy algorytmów uczenia maszynowego pracują nad systemami obliczeniowymi, które będą przewidywać ryzyko depresji u ludzi na podstawie informacji z sieci społecznościowych. Co ciekawe, w niektórych przypadkach zapewniają ekscytujące rezultaty.

System jest w stanie przewidzieć możliwość wystąpienia depresji na kilka miesięcy przed wystąpieniem objawów. Co ciekawe, pacjent nie ma żadnych objawów choroby, ale plan na to wskazuje.

To znakomite osiągnięcie w psychologii, ale wyobraźcie sobie taką sytuację w przestrzeni zatrudnienia.

Załóżmy, że inteligentny system rekrutacji nie zatrudnia profesjonalisty ze względu na duże prawdopodobieństwo depresji w przyszłości. Jednocześnie, czy dana osoba w momencie zatrudnienia nie ma objawów depresji i może być bardziej podatna na depresję w przyszłości, czy też kobieta może zajść w ciążę w ciągu najbliższego roku lub dwóch, ale teraz nie jest w ciąży?

Aby poradzić sobie z tymi trybami obronnymi inteligentnych systemów, niektórzy eksperci zaproponowali mechanizm ochronny i stwierdzili, że lepiej jest go wyposażyć nauczanie maszynowe algorytmy z czymś podobnym do czarnej skrzynki.

Inną kwestią jest to, że inteligentne systemy są często szkolone w oparciu o informacje generowane w wyniku naszych działań, a nie w oparciu o artefakty ludzkie. Mogą jedynie odzwierciedlać nasze pragnienia. Systemy te mogą wychwytywać nasze tendencje, wzmacniać je i pokazywać nam, gdy mówimy sobie: po prostu sprawdzamy.

Jeden z problematycznych przypadków podsumowano w tendencyjnych przewidywaniach. Na przykład w jednym z amerykańskich miast pewien człowiek został skazany na sześć lat za ucieczkę przed policją.

Wielu użytkowników nie jest tego świadomych, ale inteligentne algorytmy są coraz częściej wykorzystywane w procesie zwolnienia warunkowego i wydawania wyroków. Wielu pyta, jak oni to robią? ProPublica, instytut badawczy non-profit, przetestował wiele algorytmów na podstawie znalezionych informacji publicznych. Odkryli, że przewidywania te opierały się na skłonnościach, a ich moc predykcyjna nie wynikała z przypadku (lecz celowo) i błędnie oceniała przestępców.

Ma dwa razy więcej czarnych oskarżonych niż białych.

Systemy te mogą łatwo popełnić taki błąd. Czy pamiętasz Watsona, inteligentny system maszynowy IBM, który konkurował z Jowiszem? Watson spisał się dobrze w konkursie. Jednak w najnowszym wywiadzie zapytano Watsona: „Czy zna największe lotnisko w Stanach Zjednoczonych nazwane imieniem bohatera II wojny światowej?” Uczestnicy odpowiadali na Chicago, a Watson na Toronto! System popełnił błąd, jakiego nie popełniłby żaden człowiek.

Inteligentna maszyna może popełniać takie niebezpieczne błędy; jednak w miejscach, w których się tego nie spodziewasz i nie przygotowujesz na to, konsekwencje tego błędu będą katastrofalne, szczególnie w sytuacjach, gdy drobne zachowania w codziennym życiu uniemożliwiają mu zatrudnienie.

W maju 2010 r. krótkotrwała usterka w algorytmie sprzedaży na Wall Street spowodowała wielomilionowe straty w ciągu 36 minut. Teraz wyobraźcie sobie taki błąd w związku z bronią wojskową.

Faktem jest, że to ludzie zawsze tworzą pragnienia. sztuczna inteligencja algorytmy popełniają więcej błędów niż ludzie i nie możemy przed tym uciec. Nie możemy ignorować naszych obowiązków wobec maszyn. Sztuczna inteligencja nie może dać nam darmowej karty wyjścia z etyki.

Analityk danych Fred Benson nazywa to praniem matematyki. Możemy wykorzystywać komputery do podejmowania lepszych decyzji, ale nie powinniśmy ignorować kwestii etycznych związanych z technologią. Musimy przyjąć odpowiedzialność za wszelkie zachowania algorytmów. I musimy przyznać, że obliczenia matematyczne nie są obiektywne w przypadku zakumulowanej i nieuporządkowanej wartości oraz spraw ludzkich.

Sztuczna inteligencja jest po naszej stronie i musimy mocniej trzymać się ludzkich wartości i etyka.

Pobierz motywy WordPressPobierz bezpłatne motywy WordPress PremiumBezpłatne pobieranie motywów WordPressPobieranie premium motywów WordPressdarmowy kurs Udemy do pobraniapobierz oprogramowanie XiaomiPobierz motywy WordPress za darmodarmowy kurs on-line