OpenAI pozwane o zniesławienie przez ChatGPT
OpenAI otrzymało pozew o zniesławienie. Pismo złożył Mark Walters, który twierdzi, że został fałszywie oskarżony o defraudację pieniędzy należących do grupy walczącej o prawo do posiadania broni. Jak do tego doszło i co wspólnego ze sprawą ma ChatGPT? Wyjaśniamy.
Fred Riehl, redaktor naczelny strony internetowej poświęconej broni, poprosił ChatGPT o podsumowanie informacji na temat sprawy Second Amendment Foundation przeciwko prokuratorowi generalnemu Bobowi Fergusonowi. Chatbot wygenerował odpowiedź, w której stwierdził, że zaangażowany w sprawę był Mark Walters (prezenter radiowy z Georgii).
Z tekstu wygenerowanego przez sztuczną inteligencję wynikało, że radiowiec sprzeniewierzył pieniądze z Second Amendment Foundation (SAW). Zdaniem ChatGPT radiowiec miał pełnić w Second Amendment Foundation rolę skarbnika i dyrektora finansowego. Chatbot wygenerował informacje o tym, że mężczyzna oskarżany jest o defraudację pieniędzy przez jej założyciela i wiceprezesa.
Riehl, chcąc upewnić się, że wersja przedstawiona przez AI, jest prawdziwa, poprosił bota o wskazanie dokładnych akapitów ze sprawy.
Sztuczna inteligencja zaprezentowała mu część pozwu, w którym występuje nazwisko prezentera. Okazało się, jednak że były to zmyślone przez nią informacje, a cała historia wygenerowana jako streszczenie sprawy, została zmyślona. Prezenter oskarżony o defraudacje twierdzi, że nigdy w fundacji nie pracował, nie mógł pozyskać z niej żadnych funduszy.
OpenAI pozwane za kłamstwa chatbota
Walters złożył 5 czerwca pozew w Sądzie Najwyższym Hrabstwa Gwinnett, twierdząc, że OpenAI dopuścił się zaniedbania i opublikował zniesławiający materiał dotyczący jego osoby.
W pozwie napisano, że ChatGPT jest winny zniesławienia i że system sztucznej inteligencji miał „halucynacje” i generował fałszywe informacje o Waltersie. Jego adwokat, John Monroe, powiedział, że oprogramowanie zmyśliło całą historię o jego kliencie. Walters domaga się od twórców chatbota odszkodowania i honorariów adwokackich.
Nie jest to pierwszy raz, kiedy sztuczna inteligencja kłamie i już jakiś czas temu Komisja Europejska domagała się znakowania treści generowanych przez chatboty właśnie w obawie przed szerzeniem dezinformacji. Jak widać na powyższym przykładzie, obawy KE były uzasadnione i nie należy wierzyć we wszystko, co tworzą dla nas chatboty.