AI Act - do czego będzie zakazane użycie sztucznej inteligencji?
Od momentu, kiedy 22 marca tego roku organizacja non-profit Future of Life Institute, wyszła z inicjatywą, aby ograniczyć na pół roku rozwijanie systemów zaawansowanej sztucznej inteligencji, podpisało się pod nią już ponad 27 tys. osób zarówno ze świata nauki, jak i biznesu. Dużym zaskoczeniem było podpisanie petycji przez m.in. właściciela Tesli i Twittera Elona Muska i współzałożyciela firmy Apple Steve’a Wozniaka. Mimo poparcia tej petycji rozwój AI nie zwolnił ani na chwilę.
Nawet Elon Musk nie zaprzestał prac nad samochodem, który miałby być prowadzony wyłącznie przez AI. Powody, dla których niezależnie od obaw nie zatrzymuje się prac nad AI, są oczywiste, sztuczna inteligencja cieszy się olbrzymią popularnością, za którą idą olbrzymie zyski. Zastosowana w różnych programach sztuczna inteligencja może być zarówno bardzo przydatna, jak i śmiertelnie groźna.
Kiedy okazało się, że do samobójstwa 30-letniego mieszkańca Belgii, przyczynił się chatbot Eliza firmy Chai Research. Dyskusja na temat wpływu AI na ludzi rozgorzała na nowo.
Obecnie wielkie firmy takie jak Microsoft czy Google prześcigają się w coraz szerszym zastosowaniu sztucznej inteligencji w swoich produktach. Duże wątpliwości wzbudza fakt, że nie do końca wiadomo jak dane przekazywane przez użytkowników chatbotów, mogą być później wykorzystane i przez kogo. Istnieje również problem z usunięciem przekazanych danych, co narusza zasady RODO.
Już 26 kwietnia w Parlamencie Europejskim odbędzie się głosowanie nad rozporządzeniem w sprawie sztucznej inteligencji, tzw. AI Act. Rozporządzenie to ma regulować zastosowanie sztucznej inteligencji na podstawie jej potencjału do wyrządzania szkód. Dokument ten różnicuje obowiązki dostawców systemów zależnie od poziomu ryzyka, jakie stwarzają.
Zakazane ma być użycie sztucznej inteligencji: np. w systemach punktacji społecznej (ang. social scoring), identyfikacji biometrycznej w czasie rzeczywistym czy w manipulacjach poprzez techniki podprogowe — w tym wypadku zrobiono wyjątek w stosowaniu AI dla celów terapeutycznych. Druga grupa wysokiego ryzyka to stosowanie sztucznej inteligencji np. w systemach diagnostyki medycznej i w sądownictwie. Trzecią grupę stanowią systemy ograniczonego ryzyka, na które nakłada się obowiązki głównie w zakresie przejrzystości systemów.
W pierwotnym projekcie Act AI nie uwzględniono jednak chatbotów, które pojawiły się stosunkowo niedawno. Ich zastosowanie zapewne wzbudzi dużą dyskusję, ponieważ niedawno Włochy zabroniły używania chatGPT w swoim kraju.
Parlament Europejski planuje przedstawić swoje stanowisko jeszcze w maju tego roku. Następnie rozpoczną się negocjacje z Radą UE i Komisją Europejską w ramach tzw. trilogu. Jest tylko jeden problem, wypracowany akt prawny będzie mógł zostać opublikowany w Dzienniku Urzędowym UE, jednak zanim przepisy zaczną obowiązywać miną jeszcze dwa lata, a w tym czasie może wiele się zmienić.