Zdjęcie ilustracyjne - ChatGPT

i

Autor: Sanket Mishra / Pexels

AI

Wpadka sztucznej inteligencji. OpenAI dostało pozew o zniesławienie przez ChatGPT

2023-06-12 14:41

O tym, że sztuczna inteligencja może kłamać wiadomo już od dłuższego czasu. „Naukowe” teksty tworzone przez generatory AI nie raz były popierane nieistniejącymi materiałami źródłowymi. Najnowsze kłamstwo sztucznej inteligencji będzie miało finał w sądzie! Sprawdźcie, komu naraziła się sztuczna inteligencja.

OpenAI pozwane o zniesławienie przez ChatGPT

OpenAI otrzymało pozew o zniesławienie. Pismo złożył Mark Walters, który twierdzi, że został fałszywie oskarżony o defraudację pieniędzy należących do grupy walczącej o prawo do posiadania broni. Jak do tego doszło i co wspólnego ze sprawą ma ChatGPT? Wyjaśniamy.

Fred Riehl, redaktor naczelny strony internetowej poświęconej broni, poprosił ChatGPT o podsumowanie informacji na temat sprawy Second Amendment Foundation przeciwko prokuratorowi generalnemu Bobowi Fergusonowi. Chatbot wygenerował odpowiedź, w której stwierdził, że zaangażowany w sprawę był Mark Walters (prezenter radiowy z Georgii).

Z tekstu wygenerowanego przez sztuczną inteligencję wynikało, że radiowiec sprzeniewierzył pieniądze z Second Amendment Foundation (SAW). Zdaniem ChatGPT radiowiec miał pełnić w Second Amendment Foundation rolę skarbnika i dyrektora finansowego. Chatbot wygenerował informacje o tym, że mężczyzna oskarżany jest o defraudację pieniędzy przez jej założyciela i wiceprezesa.

Riehl, chcąc upewnić się, że wersja przedstawiona przez AI, jest prawdziwa, poprosił bota o wskazanie dokładnych akapitów ze sprawy.

Sztuczna inteligencja zaprezentowała mu część pozwu, w którym występuje nazwisko prezentera. Okazało się, jednak że były to zmyślone przez nią informacje, a cała historia wygenerowana jako streszczenie sprawy, została zmyślona. Prezenter oskarżony o defraudacje twierdzi, że nigdy w fundacji nie pracował, nie mógł pozyskać z niej żadnych funduszy.

OpenAI pozwane za kłamstwa chatbota

Walters złożył 5 czerwca pozew w Sądzie Najwyższym Hrabstwa Gwinnett, twierdząc, że OpenAI dopuścił się zaniedbania i opublikował zniesławiający materiał dotyczący jego osoby.

W pozwie napisano, że ChatGPT jest winny zniesławienia i że system sztucznej inteligencji miał „halucynacje” i generował fałszywe informacje o Waltersie. Jego adwokat, John Monroe, powiedział, że oprogramowanie zmyśliło całą historię o jego kliencie. Walters domaga się od twórców chatbota odszkodowania i honorariów adwokackich.

Nie jest to pierwszy raz, kiedy sztuczna inteligencja kłamie i już jakiś czas temu Komisja Europejska domagała się znakowania treści generowanych przez chatboty właśnie w obawie przed szerzeniem dezinformacji. Jak widać na powyższym przykładzie, obawy KE były uzasadnione i nie należy wierzyć we wszystko, co tworzą dla nas chatboty.

Grzegorz Napieralski: sztuczna inteligencja - szansa czy zagrożenie?