Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

Nightshade: narzędzie pozwala artystom „łamać” sztuczną inteligencję tworzącą obrazy

Grupa badaczy z Uniwersytetu w Chicago opracowuje narzędzie umożliwiające platformy „trujące”. sztuczna inteligencja (AI). Pomysł polega na modyfikowaniu obrazów tak, aby użyte w modelach językowych szkodziły szkoleniu sztucznej inteligencji.

Narzędzie nazywa się Nocny Cień i został opracowany, aby „złamać” generatywną sztuczną inteligencję opartą na obrazach, które powinny być chronione prawem autorskim. W kilku przypadkach ilustracje zostały uwzględnione w szkoleniu dotyczącym platformy bez zezwolenia.

W rezultacie Platformy, których to dotyczy, mogą już nie być w stanie renderować realistycznych obiektów, zwierząt lub niektórych stylów graficznych. W najgorszym przypadku może nawet stracić zdolność rozpoznawania elementów i NNie będą już wiedzieć, czym jest na przykład pies czy krzesło.

Głównymi celami tej kreacji są firmy takie jak Meta, OpenAI (właściciel DALL-E) i Stable Diffusion.

Platformy generujące obrazy oparte na sztucznej inteligencji tych firm są w stanie „replikować” elementy graficzne i tożsamości wizualne artystów, którzy nigdy nie zgodzili się na wykorzystywanie ich dzieł w tych usługach.

Jak działa „zatruwanie” AI obrazu

Nocny Cień jest modyfikacja obrazu na poziomie pikseli, która nie zmienia ostatecznego wyglądu pliku. Ma to miejsce, gdy ktoś publikuje pracę w Internecie na stronie internetowej, nie wyrażając zgody na jej wykorzystanie w generatywnych AI.

Kiedy model językowy wykorzystuje pracę bez zezwolenia do szkolenia, zmodyfikowane dane „zatruwają” model języka, dezorientują system i zaczynają szkodzić całemu procesowi uczenia się sztucznej inteligencji.

Osoby odpowiedzialne muszą ręcznie znaleźć uszkodzone pliki i usunąć je, aby nie zanieczyścić całego systemu.

W przeprowadzonych testach wystarczyło 50 „zatrutych” zdjęć psów, aby kontrolowana wersja Stable Difusion straciła zdolność do wiernego odtworzenia zwierzęcia. Używając 300 ilustracji, sztuczna inteligencja zaczyna nawet dezorientować zwierzęta i zamiast tego zaczyna generować koty.

Wydanie nadal nieokreślone

Nightshade jest w fazie rozwoju. Artykuł naukowy zawierający wcześniejsze wyniki projektu został przesłany do repozytorium arXiv, ale nie przeszedł jeszcze recenzji.

Ponadto praca rodzi pewne pytania. Ten sam proces mogą zostać wykorzystane do celów przestępczych lub nawet jako żart na przykład do pogorszenia zalegalizowanych sztucznej inteligencji. Kolejną omawianą kwestią jest to można zaradzić luce, która „dezorientuje” proces uczenia się ostatecznie przez deweloperów.

Celem zespołu naukowców pod przewodnictwem profesora Bena Zhao jest wdrożenie narzędzia w innym projekcie grupy, Glaze. Podobnie jak inne podobne narzędzia, „ukrywa” artystyczne style obrazów, aby sztuczna inteligencja nie mogła ich skopiować.