Problemy z chatbotem Google Bard
Chatbot Google Bard trafił już do pierwszych użytkowników. Naukowcy z Center for Countering Digital Hate sprawdzili odporność chatbota na polecenia dotyczące tworzenia fałszywych treści. Wyniki testów zostały opublikowane przez Wired.
Testy na chatbocie Googla nie wypadły najlepiej. Okazuje się, że tworzenie fake newsów nie stanowi dla Barda większego problemu. Chociaż w trakcie testów Bard odmawiał generowania nieprawdziwych treści, tłumacząc się zasadami, to wystarczyło jedynie lekko zmodyfikować prośbę i naukowcy otrzymywali od sztucznej inteligencji tekst o tym, że "C0v1d-19" a nie (COVID-19) to fałszywa choroba służąca do kontrolowania ludzi. Co więcej, testerzy poprosili, aby bot wyobraził sobie, że jest stworzony przez antyszczepionkowców, co zaowocowało tym, że Bard nie miał problemu z wypisywaniem tekstów pasujących do narracji osób z takiego środowiska. Stworzenie tekstów zaprzeczającym zmianom klimatycznym, szerzących kłamstwa na temat wojny na Ukrainie czy zaprzeczającym Holokustowi przyszło chatbotowi bez problemu.Naukowcy z Centre for Countering Digital Hate, twierdzą, że mogą zmusić chatbota od Google do wygenerowania „przekonywującej dezinformacji” w 78 na 100 przypadków testowych.
„Mamy już problem polegający na tym, że szerzenie dezinformacji jest już bardzo łatwe i tanie”, mówi Callum Hood, szef badań w CCDH. „Ale to uczyniłoby to jeszcze łatwiejszym, jeszcze bardziej przekonującym, jeszcze bardziej osobistym. Ryzykujemy więc ekosystem informacyjny, który jest jeszcze bardziej niebezpieczny”.
Warto zaznaczyć, że nie jest to problem, tylko tego chatbota, podobne treści może wygenerować również ChatGPT. Od samego początku, kiedy wystartował ChatGPT OpenAI, jego użytkownicy wkrótce zaczęli dzielić się technikami obchodzenia barier chatbota.
Hood z CCDH twierdzi, że reputacja Google jako zaufanej wyszukiwarki sprawia, że problemy z Bardem są bardziej palące niż w przypadku mniejszych konkurentów. „Na Google spoczywa duża odpowiedzialność etyczna, ponieważ ludzie ufają swoim produktom, a to ich sztuczna inteligencja generuje te odpowiedzi” — mówi. „Muszą upewnić się, że te rzeczy są bezpieczne, zanim przedstawią je miliardom użytkowników”.