Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

Czym jest odpowiedzialna sztuczna inteligencja (AI)?

Czym jest odpowiedzialna sztuczna inteligencja (AI)?

Jeśli chodzi o kwestie moralne związane ze sztuczną inteligencją, istnieje potrzeba stworzenia odpowiedzialnej sztucznej inteligencji, korzystając z definicji podanych w tym artykule. Przyjrzymy się czterem czynnikom niezbędnym przy przejmowaniu kontroli nad sztuczną inteligencją.

Sztuczna inteligencja budzi wiele obaw, takich jak nieuczciwe decyzje, zwolnienia oraz naruszenia prywatności i bezpieczeństwa. Co gorsza, wiele z tych problemów jest charakterystycznych dla sztucznej inteligencji. Oznacza to, że istniejące wytyczne i zasady są nieodpowiednie w przypadku sztucznej inteligencji. W tym miejscu wkracza odpowiedzialna sztuczna inteligencja. Jej celem jest rozwiązanie tych problemów i zapewnienie odpowiedzialności za systemy sztucznej inteligencji.

Sztuczna inteligencja i uczenie maszynowe są wszechobecne w naszym codziennym życiu, a od samochodów po media społecznościowe sztuczna inteligencja pomogła naszemu światu działać szybciej niż kiedykolwiek wcześniej.

W miarę jak technologie te włączają się do naszego codziennego życia, pojawia się wiele pytań dotyczących etyki oraz tworzenia i stosowania tych technologii. Narzędzia sztucznej inteligencji to modele i algorytmy oparte na danych ze świata rzeczywistego, odzwierciedlające w ten sposób niesprawiedliwości w świecie rzeczywistym, takie jak między innymi rasizm i mizoginia. Dane te prowadzą do wzorców utrwalających stereotypy, wspierających określone grupy ludzi wbrew większości lub niesprawiedliwie delegujących zasoby lub dostęp do usług. Wszystkie te wyniki mają daleko idące konsekwencje dla konsumentów i przedsiębiorstw.

Chociaż wiele firm zaczęło identyfikować te potencjalne problemy w swoich rozwiązaniach związanych ze sztuczną inteligencją, tylko nieliczne opracowały struktury i zasady umożliwiające ich rozwiązanie. Sztuczna inteligencja i sprawiedliwość społeczna nie mogą już funkcjonować jako dwa odrębne światy. Muszą na siebie wpływać, aby stworzyć narzędzia, które pomogą nam zbudować świat, który chcemy widzieć. Rozwiązywanie kwestii etycznych dotyczących sztucznej inteligencji i zrozumienie naszych obowiązków społecznych to złożony proces obejmujący wymagającą pracę i poświęcenia wielu ludzi.

Po co nam odpowiedzialna sztuczna inteligencja?

Kiedy mówimy o sztucznej inteligencji, zwykle mamy na myśli model uczenia maszynowego używany w systemie do automatyzacji czegoś. Na przykład samochód autonomiczny może robić zdjęcia za pomocą czujników. Model uczenia maszynowego może wykorzystywać te obrazy do przewidywania (na przykład przewidywania, że ​​obiekt przed nami to drzewo). Samochód wykorzystuje te przewidywania do podejmowania decyzji (na przykład skręć w lewo, aby uniknąć uderzenia w drzewo). Cały system nazywamy sztuczną inteligencją.

CZYTAĆ:  Jaki jest domyślny odtwarzacz multimedialny w systemie Windows 10?

To tylko przykład. Sztuczną inteligencję można wykorzystać do wszystkiego, od ubezpieczeń po diagnostykę raka. Charakterystyczną cechą jest to, że nie ma ograniczeń dotyczących decyzji systemowych. Może to ujawnić wiele możliwych problemów, a firmy muszą wyrazić jasny kierunek wykorzystania sztucznej inteligencji. Sztuczna inteligencja odpowiada za ramy monitorowania i zarządzania, które mają właśnie to osiągnąć.

Ramy te mogą zawierać szczegółowe informacje na temat tego, jakie dane można gromadzić i wykorzystywać, w jaki sposób należy oceniać modele oraz w jaki sposób optymalnie wdrażać i monitorować modele. Ramy te mogą również określić, kto jest odpowiedzialny za negatywne konsekwencje (AI). Ramy będą się różnić w zależności od firmy. Niektórzy definiują konkretne podejścia, a inni będą bardziej otwarci na interpretację. Wszyscy chcą osiągnąć cel i stworzyć systemy sztucznej inteligencji, które są interpretowalne, uczciwe, bezpieczne i szanują prywatność użytkowników.

Odpowiedzialne cele AI

Pierwszym wymienionym obszarem jest interpretowalność. Interpretując model, wyjaśniamy, jak go przewidzieć. System AI może odrzucić Twój wniosek o kredyt hipoteczny lub zdiagnozować raka. Nawet jeśli te decyzje będą prawidłowe, użytkownik prawdopodobnie będzie chciał wyjaśnień. Niektóre modele są łatwiejsze do interpretacji niż inne i ułatwiają wyjaśnienia. Odpowiedzialna sztuczna inteligencja może tworzyć modele dające się zinterpretować lub wykorzystywać modele mniej podatne na interpretację.

Uczciwość modelu polega na możliwości interpretacji. Systemy sztucznej inteligencji mogą podejmować decyzje dyskryminujące określone grupy ludzi. To obciążenie wynika z błędu w danych wykorzystywanych do uczenia modeli. Ogólnie rzecz biorąc, im bardziej czytelny jest model, tym łatwiej jest zapewnić jego rzetelność i skorygować każdy stronniczość. Nadal potrzebujemy odpowiedzialnych ram (AI), aby określić, w jaki sposób ocenia się sprawiedliwość i co zrobić, gdy zostanie znaleziony model, który pozwala na nieuczciwe prognozy. Jest to szczególnie ważne w przypadku stosowania modeli mniej możliwych do interpretacji.

Odpowiedzialna jest przyszłość sztucznej inteligencji.

Jeśli chodzi o sztuczną inteligencję, od firm oczekuje się dostosowania. Oznacza to, że muszą opracować i wdrożyć własne wytyczne dotyczące sztucznej inteligencji. Firmy takie jak Google, Microsoft i IBM-a wszyscy mają swoje wytyczne. Jednym z problemów w tym obszarze jest to, że zasady odpowiedzialności (AI) mogą być niewłaściwie stosowane w przemyśle. Mniejsze firmy mogą nawet nie mieć zasobów, aby stworzyć sztuczną inteligencję odpowiedzialną za ich firmę.

Jednym z potencjalnych rozwiązań jest przestrzeganie przez wszystkie firmy tych samych wytycznych. Na przykład Komisja Europejska opublikowała niedawno wytyczne etyczne dotyczące niezawodnej sztucznej inteligencji. Instrukcja ta wymienia siedem głównych warunków, jakie musi spełniać sztuczna inteligencja, aby była niezawodna. Korzystanie z tych wytycznych pomaga firmom zapewnić, że ich systemy sztucznej inteligencji spełniają te same standardy.

Prawdziwe pytanie brzmi: czy można ufać firmom, że same się uregulują?

Raport stanu AI i uczenia maszynowego 2020 zawiera odpowiedzi od 374 organizacji pracujących z danymi/AI. 75% organizacji stwierdziło, że (AI) jest ważną częścią ich działalności. Jednak tylko 25% z nich stwierdziło, że ważna jest uczciwa sztuczna inteligencja. Oznacza to, że odpowiedź brzmi „nie”; nie możemy na nich polegać. Aby wspólne procedury były przydatne, należy ich również przestrzegać. Innymi słowy, wytyczne należy przekształcić w zasady/przepisy, a firmy należy karać za ich nieprzestrzeganie.

CZYTAĆ:  Czym jest strategiczne zarządzanie aktywami cyfrowymi (DAM)?

Wydaje się, że to jest droga, którą podążamy. W Europie zaproponowano niedawno nowe regulacje. Zasady te opierają się na wyżej wymienionych wytycznych etycznych i będą miały wpływ na wiele branż. W Stanach Zjednoczonych nie ma obecnie takich przepisów. Jednak dyrektorzy firm technologicznych, takich jak Google, Facebook, Microsoft i Apple, wezwali do wprowadzenia większej liczby przepisów dotyczących danych i sztucznej inteligencji. Wydaje się więc, że wprowadzenie takiego rozwiązania jest tylko kwestią czasu.

Cztery uwagi dotyczące odpowiedzialnej sztucznej inteligencji (AI)

Oto kilka praktycznych wskazówek, o których warto pamiętać wyruszając w podróż do odpowiedzialnej sztucznej inteligencji.

  • Stwórz przestrzeń, w której ludzie będą mogli wyrazić swoje pytania i wątpliwości.
  • Wiedz, czego szukać lub przynajmniej od czego zacząć.
  • Spotykaj ludzi tam, gdzie oni się znajdują, a nie tam, gdzie chciałbyś, żeby byli
  • Miej odwagę dostosowywać się w miarę uczenia się.

Stwórz przestrzeń, w której ludzie będą mogli wyrazić swoje pytania i wątpliwości.

Studiując etykę w jakiejkolwiek sytuacji, nastąpi spotkanie z nieprzyjemnymi prawdami. Najsilniejsze drużyny w walce z (AI) są odpowiedzialne za bycie uczciwymi wobec siebie. Zespoły te rozpoznają preferencje w swoich danych, modelach i w sobie. Oceniają także, jak te uprzedzenia wpływają na otaczający ich świat.

Jako zespół musimy stworzyć przestrzeń, która pozwoli nam swobodnie rozmawiać o kwestiach, które mogą budzić kontrowersje, bez obawy o konsekwencje. Wymaga to wsparcia kadry kierowniczej. Czasami łatwiej będzie spotkać się i omówić zespół bez menedżerów, a następnie przedstawić menedżerom pomysły grupowe. Taki poziom anonimowości może pomóc w stworzeniu poczucia bezpieczeństwa, ponieważ pomysły prezentowane przez zespół nie mogą być realizowane w jednej osobie. Otwarta komunikacja i przekazywanie szczerych informacji zwrotnych pozwala nam skutecznie radzić sobie z tymi pytaniami. W walce o moralną sztuczną inteligencję nie jest to zespół ludzi przeciwko sobie; zespół ten jest przeciwny możliwym problemom w modelu.

Wiedz, czego szukać lub przynajmniej od czego zacząć.

Znalezienie problemów w rozwiązaniach sztucznej inteligencji może być trudne. Słaba wydajność modelu w zestawie szkoleniowym może wskazywać, że populacja ucząca nie jest reprezentatywna dla świata rzeczywistego. Na przykład przedstawienie mniejszości może spowodować, że narzędzie do rozpoznawania mowy błędnie zinterpretuje akcenty lub filtr wykrywający tylko białe twarze. Może się zdarzyć wiele innych rzeczy.

Spotykaj ludzi tam, gdzie oni się znajdują, a nie tam, gdzie chciałbyś, żeby byli

Zespoły odnoszące sukcesy składają się z różnych osób, niezależnie od wieku, doświadczenia i pochodzenia we wszystkich aspektach ich życia. Towarzyszy temu przede wszystkim odmienne rozumienie kwestii etycznych (AI). Coraz większa liczba badań i dyskursów na temat odpowiedzialnej sztucznej inteligencji zawiera terminy i koncepcje, których każdy może nie znać. Niektórzy ludzie mogą czuć się uprzedzeni w kwestii sprawiedliwości społecznej, inni nawet o niektórych z nich nie słyszeli. Głosy wszystkich członków zespołu zasługują na to, aby je usłyszeć, a stworzenie wspólnego języka i ram do dyskusji i zrozumienia ma kluczowe znaczenie dla budowania sztucznej inteligencji.

CZYTAĆ:  Przyspieszenie witryny testowej dzięki karcie Wideo w Gtmetrix

Miej odwagę dostosowywać się w miarę uczenia się

Chociaż ważne jest, aby być na bieżąco z bieżącymi problemami w zakresie sprawiedliwości społecznej i (AI), równie ważna jest chęć zaakceptowania nieznanego. Proces dochodzenia do sztucznej inteligencji wiąże się z przewidywaniem zmian, otwartością na ciągłe uczenie się i świadomością, że mogą pojawić się problemy, na które nie ma jednoznacznej odpowiedzi.

Sztuczna inteligencja to szybko rozwijająca się branża, a zwinność i chęć skupienia są często częścią gry. Jednak chęć zmiany podejścia ze względów etycznych lub zaprzestania postępu i pozbawienia obecnie dostępnego użytkownikom narzędzia wymaga odwagi. Celem nie jest tylko pomyślny import narzędzia lub modelu z rurociągu produkcyjnego. Celem powinno być pozostawanie w czołówce technologii sztucznej inteligencji, przy jednoczesnym zapewnieniu, że produkt końcowy jest uczciwy i reprezentatywny dla świata, w którym żyjemy.

Odpowiedzialność za odpowiedzialną sztuczną inteligencję spoczywa na wszystkich.

Naszą wspólną odpowiedzialnością jest dopilnowanie, aby modele były budowane tak, aby zwalczać niesprawiedliwość, a nie ją utrwalać. Powinno się to zaczynać od kreatywności, stanowić zasadniczą część cyklu życia badań i rozwoju i trwać aż do premiery i przez resztę cyklu życia produktu. Zespoły zajmujące się analizą danych i badaniami oraz inne zespoły zaangażowane w zapewnienie sztucznej inteligencji nigdy nie odniosą sukcesu bez wsparcia kadry kierowniczej.

Firmy i instytucje, które traktują odpowiedzialność (AI) jako długoterminowe zobowiązanie i mierzą sukces w przeliczeniu na przychód, umożliwiają swoim zespołom zadawanie pytań i martwienie się bez obawy o konsekwencje. Wyrazić. Tworzy to cykl refleksji i refleksji, który odpowiada na pytania etyczne, jakie zadajemy w związku z budowaniem i wykorzystaniem sztucznej inteligencji. W ten sposób będą popełniane błędy, a zazwyczaj to nie my radzimy sobie z unikaniem innowacji w celu uniknięcia potencjalnych szkód. Zamiast tego naszym zadaniem jest krytyczne spojrzenie na nasze postępy, aby uczynić świat bardziej sprawiedliwym miejscem.

Pobierz zerowe motywy WordPressPobierz zerowe motywy WordPressPobierz zerowe motywy WordPressPobierz zerowe motywy WordPresskurs udemy do pobrania za darmopobierz oprogramowanie mobilnePobierz motywy WordPress za darmoZG93bmxvYWQgbHluZGEgY291cnNlIGZyZWU=