MANIPULACIJA CHATBOTOVA
"Svijet je u opasnosti": Šef sigurnosti dao otkaz u AI tvrtki uz upozorenje

Istraživač sigurnosti umjetne inteligencije napustio je američku tvrtku Anthropic uz zagonetno upozorenje da je „svijet u opasnosti“.
Dva odlaska zbog zabrinutosti napretkom AI-a
U svojem oproštajnom pismu objavljenom na platformi X, Mrinank Sharma naveo je da odlazi zbog zabrinutosti oko umjetne inteligencije, biološkog oružja i stanja šireg svijeta.
Rekao je da će se posvetiti pisanju i studiju poezije te se vratiti u Ujedinjeno Kraljevstvo kako bi „postao nevidljiv“.
To se događa u istom tjednu u kojem je istraživačica OpenAI-ja također objavila da je dala otkaz, izrazivši zabrinutost zbog odluke proizvođača ChatGPT-a da uvede oglase u svoj chatbot.
Humanity is in Peril: Why Anthropic's Safety Lead Just Quit
— Pankaj Kumar (@pankajkumar_dev) February 12, 2026
Mrinank Sharma, the Senior Researcher leading Anthropic's Safeguards Team, has resigned with a blunt warning for the industry: “The world is in peril.”
Sharma’s role was explicitly to prevent AI misuse including… pic.twitter.com/XAIBN2NKxB
Anthropic, najpoznatiji po svojem chatbotu Claude, objavio je niz reklama usmjerenih protiv OpenAI-ja, kritizirajući odluku tvrtke da uključi oglase za dio korisnika.
Tvrtka, osnovana 2021. godine od strane skupine bivših ranih zaposlenika OpenAI-ja, pozicionirala se kao organizacija s pristupom istraživanju umjetne inteligencije koji je više usmjeren na sigurnost u odnosu na konkurente.
Sharma je ondje vodio tim koji je istraživao zaštitne mehanizme u području umjetne inteligencije, piše BBC.
"Svijet je u opasnosti" zbog međusobno povezanih kriza
U svojem oproštajnom pismu naveo je da su njegovi doprinosi uključivali istraživanje zašto generativni sustavi umjetne inteligencije ulizivački komuniciraju s korisnicima, suzbijanje rizika od bioterorizma potpomognutog umjetnom inteligencijom te proučavanje „kako bi AI asistenti mogli učiniti da budemo manje ljudski“.
Iako je rekao da je uživao radeći u tvrtki, istaknuo je da je jasno da je „došlo vrijeme za odlazak“.
„Svijet je u opasnosti. I to ne samo zbog umjetne inteligencije ili biološkog oružja, već zbog čitavog niza međusobno povezanih kriza koje se odvijaju upravo sada“, napisao je Sharma.
Introducing Claude Code Security, now in limited research preview.
— Claude (@claudeai) February 20, 2026
It scans codebases for vulnerabilities and suggests targeted software patches for human review, allowing teams to find and fix issues that traditional tools often miss.
Learn more: https://t.co/n4SZ9EIklG pic.twitter.com/zw9NjpqFz9
Dodao je da je „više puta vidio koliko je teško doista dopustiti da naše vrijednosti upravljaju našim djelovanjem“ – uključujući i u Anthropicu, koji se, kako je naveo, „stalno suočava s pritiscima da zanemari ono što je najvažnije“.
Sharma je rekao da će se sada posvetiti studiju poezije i pisanju.
U odgovoru je dodao: „Vratit ću se u Ujedinjeno Kraljevstvo i na neko vrijeme dopustiti si da postanem nevidljiv.“
Oni koji napuštaju AI tvrtke koje su igrale veliku ulogu u najnovijem procvatu generativne umjetne inteligencije – i koje su nastojale zadržati talente velikim plaćama i paketima naknada – često to čine uz zadržavanje značajnih dionica i pogodnosti.
Narušavanje načela
Anthropic sebe naziva „korporacijom od javnog interesa posvećenom osiguravanju koristi [AI-ja] i ublažavanju njegovih rizika“.
Posebno se usredotočio na sprječavanje rizika za koje smatra da ih nose napredniji, tzv. frontier sustavi, poput njihove moguće neusklađenosti s ljudskim vrijednostima, zloupotrebe u područjima poput sukoba ili prevelike moći.
Objavio je izvješća o sigurnosti vlastitih proizvoda, uključujući slučaj kada je naveo da je njegova tehnologija bila „naoružana“ od strane hakera za izvođenje sofisticiranih kibernetičkih napada.
No tvrtka se također suočila s kritikama zbog svojih praksi. Godine 2025. pristala je platiti 1,5 milijardi dolara (1,1 milijardu funti) kako bi nagodbom okončala skupnu tužbu autora koji su tvrdili da je tvrtka ukrala njihova djela za treniranje svojih AI modela.
Poput OpenAI-ja, tvrtka također nastoji iskoristiti prednosti tehnologije, među ostalim putem vlastitih AI proizvoda poput Claudea, konkurenta ChatGPT-u.
Altman: Oglasi kao posljednje rješenje
Nedavno je objavila reklamu u kojoj je kritizirala OpenAI-jevu odluku o uvođenju oglasa u ChatGPT.
Direktor OpenAI-ja Sam Altman ranije je izjavio da mrzi oglase i da bi ih koristio samo kao „posljednje rješenje“.
Prošlog tjedna uzvratio je na opis te odluke kao „izdaje“, no bio je ismijan zbog poduže objave u kojoj je kritizirao Anthropic.
Bivša istraživačica OpenAI-ja koja je ovaj tjedan dala otkaz, djelomično zbog zabrinutosti oko korištenja oglasa u ChatGPT-u, rekla je za BBC Newsnight da se „osjeća doista nervozno zbog rada u industriji“.
Zoe Hitzig izjavila je da njezina zabrinutost proizlazi iz mogućih psihosocijalnih posljedica „nove vrste društvene interakcije“ koje još nisu dovoljno shvaćene.
"Zabrinjavajuća" ovisnost o AI alatima
Istaknula je „rane znakove upozorenja“ da je ovisnost o AI alatima „zabrinjavajuća“ te da bi mogla „pojačati određene vrste zabluda“, kao i negativno utjecati na mentalno zdravlje korisnika na druge načine.
„Stvaranje ekonomskog mehanizma koji profitira potičući takve nove odnose prije nego što ih razumijemo doista je opasno“, nastavila je.
„Vidjeli smo što se dogodilo s društvenim mrežama“, rekla je, napominjući da „još ima vremena za uspostavu društvenih institucija i oblika regulacije koji to mogu doista urediti“. To je, rekla je, „kritičan trenutak“.
Odgovarajući na upit BBC Newsa, glasnogovornik OpenAI-ja uputio je na načela tvrtke u kojima stoji: „Naša je misija osigurati da AGI koristi cijelom čovječanstvu; naša potraga za oglašavanjem uvijek je u službi te misije i činjenja umjetne inteligencije dostupnijom.“
Dodaju: „Vaše razgovore s ChatGPT-om držimo privatnima u odnosu na oglašivače i nikada ne prodajemo vaše podatke oglašivačima.“
Kakvo je tvoje mišljenje o ovome?
Pridruži se raspravi ili pročitaj komentare