Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

Organizacja będzie certyfikować systemy AI, które respektują prawa autorskie

Modele generatywnej sztucznej inteligencji, które szanują prawa autorskie twórców treści wykorzystywanych do celów szkoleniowych, zaczęły zyskiwać na popularności pieczęć certyfikującą w Stanach Zjednoczonych. Organizacja non-profit Fairly Trained jest jednym z pionierów w tej pracy.

Jak ogłoszono w środę w ramach inicjatywy (17), jej celem jest odróżnienie przedsiębiorstw zajmujących się generatywną sztuczną inteligencją, które wnioskują o zezwolenie na korzystanie z chronionych danych, od tych, które tego nie robią. W tej chwili Amerykańskie prawo nie zobowiązuje programistów do informowania źródła treściale w toku są propozycje sugerujące zmiany.

Pierwszą pieczęcią wydaną przez tę organizację jest Certyfikat licencjonowanego modeluprzyznawane firmom, które nie wykorzystują chronionych danych bez zgody właścicieli. Licencje mogą być niestandardowe, otwarte i innego rodzaju, ale nie będą przyznawane programistom, którzy twierdzą, że ich treningi są „dozwolone”.

W tej pierwszej chwili dziewięć firm zajmujących się generatywną sztuczną inteligencją otrzymało już pieczęć Fairly Trainedtakie jak Beatoven.AI, BRIA AI, LifeScore i Tuney. To startupy, które oferują narzędzia do generowania obrazu z wykorzystaniem opisu tekstowego, muzyki i głosu.

Sprawy o naruszenie praw autorskich

Chociaż obecnie w USA nie ma prawnego obowiązku ubiegania się o zezwolenie na wykorzystanie danych w systemach generatywnej sztucznej inteligencjinieograniczone wykorzystanie tych informacji nie zadowoliło twórców treści. Efektem jest wzrost liczby pozwów przeciwko firmom z branży.

Jedna z najgłośniejszych spraw dotyczy OpenAI, startupu stojącego za popularnym ChatGPT, pozwanego przez . Gazeta zarzuca, że ​​deweloper bez zezwolenia wykorzystał własne materiały do ​​szkolenia chatbotów.

W akcji, w której uczestniczy także Microsoft, jeden z głównych inwestorów właściciela ChatGPT, pyta publikacja natychmiastowe zawieszenie wykorzystania Twoich treści w systemie AI. Deweloper broni się, twierdząc, że nie da się wytrenować mechanizmu bez wykorzystania treści stworzonych przez człowieka i twierdzi, że respektuje prawa autorskie.

Firma Fairly Trained została założona przez byłego wiceprezesa Stability AI Eda Newtona-Rexa. Po odejściu ze swojej starej pracy dyrektor powiedział, że to technologia wykorzystywali twórców i ostatecznie konkurowali z ich pracą.