Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

Ukierunkowana sztuczna inteligencja jest bardziej niebezpieczna niż technologia

W ciągu ostatnich pięciu lat wiele mówiło się o sztucznej inteligencji ogólnej (AGI). Ogólne Sztuczna inteligencja to najwyższy poziom sztucznej inteligencji, która działa blisko ludzkiego mózgu.

W przeciwieństwie do ograniczonej sztucznej inteligencji, która jest opracowywana do wykonywania określonych zadań, ogólna sztuczna inteligencja może wykonywać różne funkcje. Sztuczna inteligencja to w pełni świadomy algorytm, który potrafi zrobić wszystko, co wymaga skomplikowanego przetwarzania, poznać jej cenne punkty i wykorzystać to w przyszłych zastosowaniach. Ta sztuczna inteligencja jest tak wydajna i potężna, że ​​eksperci i naukowcy wyrazili swoje obawy związane z rozwojem tego modelu sztucznej inteligencji w różnym czasie. Naukowcy i eksperci uważają, że rozwój sztucznej inteligencji, na wzór robotów, które widzieliśmy w słynnej serii filmów Terminator, umożliwi im pracę wymykającą się spod kontroli człowieka.

W swoich przemówieniach i tweetach Ilan Musk, dyrektor generalny SpaceX i Tesli, potępił rozwój sztucznej inteligencji i uważa, że ​​rozwój sztucznej inteligencji jest koniec ludzkiej pracy. Podczas SXSW w 2018 roku powiedział: „Rozwój cyfrowej nadświadomości stanowi największe zagrożenie dla społeczeństw ludzkich, ponieważ są one autonomiczne, nie potrzebują pomocy człowieka do wykonywania swojej pracy, a nawet nie są przed nikim odpowiedzialne za to, co robią. „Te superinteligencje wywierają dodatkową presję na społeczeństwo”.

„Przyjdzie dzień, kiedy sztuczna inteligencja systemy stają się bardziej niebezpieczne i śmiercionośne niż bomby nuklearne” – stwierdził.

W wywiadzie dla stacji informacyjnej w 2014 roku nieżyjący już Stephen Hawking wyraził swoje głębokie zaniepokojenie, mówiąc: „Jeśli zrobisz krok w kierunku rozwoju sztucznej inteligencji publicznej, rasa ludzka wyginie”.

Stuart Russell, informatyk, wyraził głębokie zaniepokojenie w krótkim filmie dokumentalnym zatytułowanym Slaughterbots dotyczącym tworzenia broni wykorzystującej sztuczną inteligencję do identyfikacji i zabijania ludzi. Uważa, że ​​krótkie filmy dokumentalne powinny opowiadać o niebezpiecznym charakterze wykorzystywania tej technologii do szkodliwych celów, aby uświadamiać ludzi i zmuszać firmy do zaprzestania produkcji genialnych dział samobieżnych.

Jednak niewielu sprzeciwiło się niebezpieczeństwom, jakie to stwarza sztuczna inteligencja systemy stanowią dla ludzi. Niestety, w dzisiejszych czasach, sztuczna inteligencja systemy poważnie uszkodziły strukturę społeczeństw, ale ich destrukcyjne skutki nie są na tyle widoczne, aby wszyscy ludzie je zauważyli. Na przykład obecnie opracowano inteligentne algorytmy umożliwiające identyfikację grup etnicznych na podstawie ich twarzy.

Inteligentne supersystemy stają się nadzorcami, którym powierzona jest odpowiedzialność za pracę. Nie ma większych obaw co do wyższości superinteligentnych systemów nad człowiekiem i ich destrukcyjnego wpływu na świat, gdyż są one wykorzystywane przede wszystkim w zakładach produkcyjnych i fabrykach i powodują jedynie bezrobocie, więc jeszcze nam do tego daleko. Jednak największym problemem jest obecnie proces rekrutacji. Dziś niektóre firmy korzystają sztuczna inteligencja zamiast zatrudniać menedżerów zajmujących się rekrutacją w celu oceny otrzymanych CV i zapraszania odpowiednich kandydatów na rozmowy kwalifikacyjne. Jedną z największych obaw związanych z opracowywaniem inteligentnych algorytmów w sektorze zasobów ludzkich jest uwzględnienie uprzedzeń kulturowych i społecznych podczas projektowania tego modelu systemu.

Analitycy danych i statystycy mają słynne powiedzenie: „Niewłaściwe dane wejściowe bez jakości zapewniają nieprawidłowe wyniki”.

Mówiąc o algorytmach uczenia maszynowego, powyższa propozycja staje się dużym wyzwaniem. Głębokie uczenie się to istotna poddziedzina uczenia maszynowego, która odnosi się do sieci neuronowych i neuronów, które próbują identyfikować wzorce. Ten adaptacyjny wzorzec umożliwia komputerom rozpoznawanie muzyki lub piosenek poprzez słuchanie ich przez zaledwie kilka sekund, rozpoznawanie, kiedy ktoś mówi i zamienianie mowy na tekst lub tworzenie głęboko fałszywych treści. کردن. We wszystkich tych przypadkach danymi jest pierwsza i ostatnia litera.

Ilekroć pojawia się wiadomość, że ekspert wykorzystał publiczne zdjęcia z serwisów takich jak Facebook do nauczania programu rozpoznawania twarzy, dostarcza te dane jako dane wejściowe do algorytmu uczenia maszynowego. Ogólnie rzecz biorąc, specjaliści usuwają obrazy po dostarczeniu zdjęć do algorytmu uczenia maszynowego i ukończeniu szkolenia algorytmu, ponieważ nie są one już przydatne dla analityków danych. Eksperci ds. bezpieczeństwa uważają jednak, że takie podejście stanowi wyraźne naruszenie prywatności użytkowników.

Niektórzy uważają, że urocze selfie, które publikują w sieciach takich jak Instagram, są bezwartościowe. Jednak zdecydowana większość salafitów dostarczanych jako dane wejściowe do algorytmów dostarcza ekscytujących informacji o twarzach jednostek i ich rasie. W tym przypadku algorytm uczy się klasyfikacji jednostek, społeczności i grup etnicznych i z czasem nabywa dobrych umiejętności w tym obszarze. System można wdrożyć przy bramkach wejściowych na lotnisko w celu identyfikacji osób, nawet obywateli innego kraju, poprzez spojrzenie na ich twarze i poinformowanie funkcjonariusza, jakie konkretne i celowe pytania należy zadać. A teraz wyobraź sobie, co się stanie, jeśli inteligentny model algorytmu będzie w stanie zidentyfikować mieszkańców dowolnego kraju po prostu patrząc na ich twarze?

Jaka jest reakcja organów ścigania na zastosowanie inteligentnych algorytmów?

Od początku lat 90. ciągłe raportowanie policji w Stanach Zjednoczonych na temat statystyk dotyczących przestępczości skłoniło organy ścigania do stosowania modelu predykcyjnego w celu skupienia policji na lokalizacjach za pośrednictwem tego modelu raportowania. Mają więcej statystyk dotyczących przestępczości. Jeżeli jednak na określonym obszarze stacjonuje duża część policji, czy nie jest prawdopodobne, że przestępczość wzrośnie na obszarach, gdzie żyją różne grupy etniczne i kulturowe, ale gdzie obecność policji jest mniejsza?

Algorytm wykrywa, że ​​prawdopodobieństwo wystąpienia przestępstw jest większe w niektórych obszarach, co sugeruje rozmieszczenie w tych obszarach większej liczby sił policyjnych, w miarę możliwości wykrycia większej liczby przestępstw. Niestety, ta pętla informacji zwrotnej nie określa dokładnie, gdzie dochodzi do przestępstw, ale zamiast tego zapewnia przegląd miejsc, w których policja może zauważyć więcej przestępstw. To podejście może wydawać się proste, ale uprzedzenia nadal mogą być problematyczne. Na przykład w Stanach Zjednoczonych policja częściej udaje się do obszarów biedniejszych lub należących do różnych grup etnicznych, a inteligentne modele częściej popełniają przestępstwa na tych obszarach. W rezultacie wzrastają zasady, ograniczenia i presja na mieszkańców tych obszarów. To sprawia, że ​​mieszkańcy tych obszarów mają błędną mentalność wobec policji. Powtarzamy, że to nie jest opowieść fantasy. Dziś te fanatyczne algorytmy zostały opracowane i, jak wspomniano, udostępnione policji krajów rozwiniętych.

Problemy z błędnymi danymi

Jeśli funkcjonariusze organów ścigania korzystają z systemu rozpoznawania twarzy w celu identyfikacji podejrzanych o popełnienie różnych przestępstw, a algorytm nie jest dobrze przeszkolony w zakresie rozpoznawania twarzy o ciemnych karnacjach, może to doprowadzić do aresztowania wielu osób za wykroczenia. Jeżeli podejrzani zostaną uznani za winnych na podstawie wadliwego algorytmu rozpoznawania twarzy, mogą zostać uniewinnieni.

Wspomniane przypadki stanowią część wysiłków mających na celu zastąpienie algorytmów uczenia maszynowego człowieka. Jak wspomniano, inteligentne algorytmy mogą zwiększyć koncentrację sił policyjnych na obszarach lub obszarach o wysokim wskaźniku przestępczości. Jeżeli jednak policja aresztuje osobę za przestępstwo, którego nie popełniła, sztuczna inteligencja Algorytm wykrywa, patrząc na kamery bezpieczeństwa, że ​​jest to ta sama osoba, która popełniła przestępstwo. Udowodnić swoją niewinność nie jest łatwo, bo wizerunek osoby w kątach Inny może wyglądać podobnie do wizerunku innej osoby. Jak jednak zauważono, inteligentne algorytmy zawsze borykają się z problemem dyskryminacji, różnicowania obywateli, proponowania wywierania presji na słabszych i stronniczego traktowania mniejszości. Niestety, niektórzy w to wierzą sztuczna inteligencja nie ma ludzkich uprzedzeń i dlatego akceptuje wyniki dostarczone przez algorytmy, jeśli rzeczywistość jest inna, a algorytmy te mogą mieć systematyczne uprzedzenia i podejścia, których musimy unikać.

Czy lepsze dane są kluczem do rozwiązywania problemów?

Czy wymienione problemy można rozwiązać przy wykorzystaniu lepszych danych, czy też można je rozwiązać samodzielnie? Identyfikacja błędów i trendów w danych wykorzystywanych do nauczania uczenia maszynowego prowadzi do bardziej wydajnych modeli, ale istnieją wady. Nigdy nie będziemy w stanie wdrożyć modeli neutralnych, ponieważ proces tak dokładnej analizy danych jest tak skomplikowany i być może niemożliwy. Może najlepiej będzie zadać sobie pytanie o podstawowe zadania, które zamierzamy wykonać, zamiast próbować je budować systemy sztucznej inteligencji bez uprzedzeń, co prawdopodobnie jest niemożliwe. Na przykład, czy musimy rozwijać sztuczną inteligencję publiczną?

Rashida Richardson, prawniczka i badaczka specjalizująca się w algorytmice w Rutgers Law School w New Jersey, uważa, że ​​prostym rozwiązaniem jest to. „Zamiast próbować wyjaśniać tę mroczną część uczenia maszynowego, lepiej skupić się na podstawowych problemach świata i wykorzystać sztuczna inteligencja aby rozwiązać rzeczywiste problemy” – mówi. „Wtedy będziemy mogli zacząć budować niezawodne inteligentne urządzenia”.

ostatnie słowo

Być może w odległej przyszłości powinniśmy się martwić sztuczną inteligencją, na wzór filmów fabularnych. Na razie jednak istotne jest edukowanie ludzi na temat potencjalnych zagrożeń związanych z tym zjawiskiem sztuczna inteligencja oraz uchwalać przepisy zachęcające firmy do opracowywania inteligentnych algorytmów. Należy przestrzegać zasad, a uprzedzenia usunąć ze świata sztuczna inteligencja.

Pobierz bezpłatne motywy WordPress PremiumBezpłatne pobieranie motywów WordPressBezpłatne pobieranie motywów WordPressBezpłatne pobieranie motywów WordPressdarmowy kurs Udemy do pobraniapobierz oprogramowanie mobilneBezpłatne pobieranie motywów WordPresspłatny kurs udemy do pobrania za darmo