Badanie przeprowadzone na Uniwersytecie Oksfordzkim w Wielkiej Brytanii wskazuje, że halucynacje wywołane generatywną sztuczną inteligencją (AI) stanowią główne zagrożenie dla nauki. Jak wynika z artykułu, naiwność użytkowników wobec informacji przekazywanych przez modelki może w przyszłości stanowić duży problem.
„Ludzie korzystający z LLM często antropomorfizują [atribuem características humanas] technologii, ufając jej jako ludzkiemu źródłu informacji” – powiedział współautor artykułu, profesor Brent Mittelstadt.
Co to są halucynacje?
Wyrażenie „halucynacja” odnosi się do momentu, w którym sztuczna inteligencja przedstawia niedokładne lub całkowicie wprowadzające w błąd informacje. Dzieje się tak najczęściej w przypadku żądania bardzo szczegółowych informacji z dużej bazy danych, ale może się to również zdarzyć w bardziej powszechnych scenariuszach.
Głównym czynnikiem powodującym to zamieszanie byłby sposób, w jaki te chatboty prezentują się: ze spójnymi, przystępnymi tekstami podobnymi do ludzkiej mowy. Co więcej, modele zwykle ufają dostarczonym informacjom, nawet jeśli nie są one prawdziwe.
AI prezentują informacje z pewnością
„Dzięki temu użytkownicy mogą łatwo przekonać się, że odpowiedzi są dokładne, nawet jeśli nie są oparte na faktach lub przedstawiają stronniczą lub częściową wersję prawdy” – stwierdził profesor.
Ta kombinacja czynników stanowi jednak zagrożenie dla upowszechniania nauki i edukacji. Oprócz tego, że jest rozpowszechniaczem niedokładnych informacji dostępnych dla każdego, społeczność naukowa jest również pod presją, aby wykorzystywała generatywną sztuczną inteligencję jako tłumaczy treści.
Zdaniem profesorów z Oksfordu zaangażowanych w badanie modele językowe są ważnymi pomocnikami w przepływie pracy, szczególnie w badaniach, ale istotne jest, aby użytkownicy korzystali z narzędzia w sposób odpowiedzialny i świadomi jego wad.