Austrijski pravnik i aktivist Max Schrems gostovao je u Zagrebu u Span Cyber Security Areni koja je okupila više od 400 posjetitelja. Borac je za zaštitu prava ljudi u eri sve intenzivnijeg praćenja i iskorištavanja podataka, a njegova tužba protiv Facebooka 2013. postavila je temelje za današnju regulaciju privatnosti podataka između EU-a i SAD-a.
U svom jučerašnjem izlaganju Schrems je, među ostalim, ukazao kako Chat GPT, jedan od najkorištenijih alata umjetne inteligencije, ne može ispraviti podatke što ih generira, ukoliko su oni pogrešni.
Kako je novinar postao kriminalac?
Opisao je to kroz primjer jednog novinara Crne kronike za kojeg je Chat GPT objavio da je počinitelj kaznenog djela iz slučaja o kojem je u svom novinarskom radu pisao. Iako je novinar tražio da se taj podatak ispravi Chat GPT odgovorio mu je kako to u ovom trenutku nije moguće.
Pitali smo Schremsa što se u ovakvim slučajevima poput ovog kakvog je doživio novinar ipak može učiniti?
“Zakonski propisi postoje. Zaštita osobnih podataka je neutralna što se tiče tehnologija. Zato se odnosi na nove tehnologije, kao i na one stare. Prema tim propisima podaci moraju biti točni. Ako su podaci netočni možete tražiti odgovornost tvrtke, a imate i pravo da vaši podaci budu ispravljeni”, objašnjava Schrems.
Nove tehnologije treba ispravljati
Ipak, iz Chat GPT-a sada tvrde kako tehnologija ne omogućuje ispravljanje podataka.
“Treba tražiti od Chat GPT-a i drugih novih sustava da unaprijede tehnologiju kako bi mogli ispraviti netočne podatke. Moraju iznova obučiti svoje podatkovne sustave kako bi se podaci ispravili, ili postaviti filtere koji bi mogli zaustaviti neispravne podatke.
Ono što za sada vidimo je da te kompanije, kao i sve koje uvode nove tehnologije, govore kako nove tehnologije ne moraju poštivati zakon, no nije prihvatljivo”, rekao nam je Schrems.
Poplava lažnih informacija
N1: Može li nam se dogoditi da nas preplave lažne informacije s Chat GPT-a ili drugih sustava umjetne inteligencije?
“Ne vjerujem da bi nas mogle preplaviti, no činjenica je da se pojavljuje značajan broj lažnih informacija. U nekim slučajevima to je toliko nevjerojatno da izaziva smijeh, ali nekad to predstavlja i ozbiljan problem.
Svjesni smo da bez tih novih tehnologija ne možemo, no morali bismo biti pošteni i priznati da, iako je sposobna napraviti divne stvari, još uvijek nije na razini koja nam je potrebna.
Što se tiče osobnih podataka tu postoje mjerila a ona su da podaci moraju biti točni. Oni koji ne mogu garantirati točnost podataka jednostavno ne mogu koristiti sporni softver. Vrlo jednostavno”, ističe Schrems.
Korist od umjetne inteligencije
N1: Smijemo li uopće dopustiti da nam sustavi AI-a proizvode lažne informacije, te se za sada miriti s time?
“Na žalost i regulatori za sada govore da je u pitanju nova tehnologija za koju još nema rješenja, no i Facebook ili Google Glasses ili Blockchain bili su noviteti. Neke od tih novih tehnologija propadaju kao nepotrebne, a one koje opstanu moraju se uskladiti s pravilima.
Pravila su odavno uvedena za sustave poput umjetne inteligencije, samo što se to ranije zvala analitika velike količine podataka. Ne može se reći da ta pravila nisu predvidjela umjetnu inteligenciju, jer jesu. Ispregovarana su pravila koja će vrijediti u budućnosti, a kako je ta budućnost sada došla, jednostavno ih moramo primjenjivati”, zaključuje Max Schrems.
N1 pratite putem aplikacija za Android | iPhone/iPad i mreža Twitter | Facebook | Instagram | TikTok
Kakvo je tvoje mišljenje o ovome?
Budi prvi koji će ostaviti komentar!