Na wypadek, gdybyś nie wiedział o najnowszych oszustwach, które szerzą się w społeczności, za pośrednictwem poczty elektronicznej krąży nowszy schemat linków.
Nie jest to całkowicie nowe, chociaż niektóre elementy oszustwa są nowe.
TheNextWeb.com zgłosiło to oszustwo 24 kwietnia 2022 r.
Dzieje się tak: oszust wyśle Ci e-mail, twierdząc, że jest konkretną firmą prawniczą lub prawnikiem. Będą mieli ładny papier firmowy e-mail, wszystkie prace.
Będą twierdzić, że są prawnikiem, który kontaktuje się z Tobą, ponieważ Twoja witryna narusza ich prawa autorskie i je narusza.
Następnie grożą Ci sporem sądowym w sprawie linku.
Glenn Gabe również napisał na ten temat świetny komentarz na Twitterze:
„Ale sieci GAN nadal tworzą nienaturalne artefakty, które można łatwo wykryć, jeśli znasz tę technologię. Możesz łatwo wykryć nieprawidłowości w miejscach takich jak kolczyki, cienie z boku twarzy, krawędzie włosów i brody, zmarszczki, obramowania brwi i boki okularów.” pic.twitter.com/kFvkVWMnqQ
— Glenn Gabe (@glengabe) 24 kwietnia 2022 r
W jaki sposób oszuści generują te zdjęcia?
W dzisiejszych czasach jest to całkiem łatwe. Dostępne jest oprogramowanie AI, które umożliwia wygenerowanie losowego zdjęcia dowolnej osoby, dla której chcesz stworzyć fikcyjną tożsamość.
Na przykład, wygenerowane.zdjęcia jest jedną z takich usług.
Jednak zanim zaczniesz się martwić, nie zawsze istnieje nielegalne wykorzystanie tych zdjęć. W celach zgodnych z prawem projektanci mogą wykorzystywać tego typu zdjęcia do ujęć modelek w witrynach internetowych, gdzie mogą nie mieć zbyt dużo pieniędzy na zakup praw do prawdziwych zdjęć modelek.
Albo fotografia stockowa jest zbyt droga.
Niezależnie od przypadku.
Technologia stojąca za oszustwem: generatywna sieć kontradyktoryjna (GAN)
Część technologii wykorzystywanej przez tych oszustów w celu nakłonienia ludzi do podawania linków obejmuje GAN (lub generatywne sieci kontradyktoryjne).
Są to rodzaj sieci neuronowej, która wykorzystuje głębokie uczenie się w celu określenia, w jaki sposób twórczo generować ludzkie twarze na podstawie danych wejściowych użytkownika.
Jak donosi bdtechtalks.com w 2018 roku:
„Chwile objawienia przychodzą zazwyczaj w najmniej prawdopodobnych okolicznościach. W przypadku Iana Goodfellowa, doktora nauk maszynowych, pojawiło się to podczas dyskusji z przyjaciółmi na temat sztucznej inteligencji w pubie w Montrealu pewnego późnego wieczoru w 2014 r. Wynikiem tego pamiętnego spotkania była „generatywna sieć kontradyktoryjna”, czyli (GAN), innowacja, którą eksperci ds. sztucznej inteligencji określili jako „najfajniejszy pomysł głębokiego uczenia się w ciągu ostatnich 20 lat”.
Przyjaciele Goodfellowa rozmawiali o tym, jak wykorzystać sztuczną inteligencję do tworzenia realistycznych zdjęć. Problem, przed którym stanęli, polegał na tym, że obecne techniki i architektury sztucznej inteligencji, algorytmy głębokiego uczenia się i głębokie sieci neuronowe dobrze radzą sobie z klasyfikacją obrazów, ale niezbyt dobrze z tworzeniem nowych.
Goodfellow wpadł na pomysł nowej techniki, w której różne sieci neuronowe rzucają sobie nawzajem wyzwania, aby nauczyć się tworzyć i ulepszać nowe treści w procesie rekurencyjnym. Tej samej nocy zakodował i przetestował swój pomysł i zadziałał. Z pomocą innych naukowców i absolwentów swojej macierzystej uczelni, Université de Montréal, Goodfellow ukończył później i zebrał swoją pracę w słynny i często cytowany oficjalny dokument zatytułowany „Generatywne sieci kontradyktoryjne”.
Chociaż technologia ta nie została początkowo zaprojektowana do wykorzystania w oszustwach, oszuści znaleźli sposób na obejście konwencjonalnych ograniczeń (jak zwykle).
Wady twarzy GAN
Wygenerowane twarze, jak można się spodziewać, nie są do końca idealne. Chociaż mają kilka zalet w różnych przypadkach użycia, mają swoje wady.
Na przykład możesz zauważyć jedną lub dwie rzeczy nie na miejscu, na przykład rzęsę, która nie została prawidłowo wygenerowana.
Możesz też zauważyć, że płatek ucha również jest nie na miejscu.
Właśnie dlatego sztuczna inteligencja nie jest dokładnie taka, jak się wydaje: oprogramowanie ma pewne ograniczenia i nie da się jeszcze stworzyć czegoś w 100% doskonałego.
Nie można jednak zaprzeczyć, że technologia zdecydowanie poszła do przodu.
Jak widać, główne niedoskonałości wygenerowanych obrazów są zaznaczone na czerwono i dla wnikliwego oka nie wyglądają one w 100% realistycznie.
Ale może to jest problem. Nie każdy będzie miał bystre oko i być może o to właśnie chodzi: aby obrazy były jak najbardziej doskonałe, ale nie w 100% poprawne.
Tak czy inaczej, przeszedłby test zapachu dla laika, który nie wie, czego powinien szukać.
I można go łatwo wykorzystać w oszustwie.