Anthropic, o companie de tehnologie, a anunțat un nou model de inteligență artificială numit Claude Mythos Preview. Deși acest sistem este promițător, compania a decis să nu-l lanseze public. Spre deosebire de alte modele AI, care sunt disponibile rapid pentru utilizatori, Mythos va fi accesibil doar unui grup mic de organizații, în principal companii mari și agenții de securitate cibernetică.
Decizia de a limita accesul este rezultatul unor îngrijorări serioase legate de capacitățile acestui model. Anthropic susține că modelul ar putea depăși majoritatea experților în găsirea vulnerabilităților software. Unele dintre aceste breșe sunt foarte subtile și ar putea rămâne nedetectate, chiar și în programe testate de milioane de ori. Se crede că intrăm într-o nouă etapă, în care inteligența artificială devine un pericol major pentru infrastructura digitală.
Modelul poate scana aplicații, identifica probleme necunoscute și, în unele cazuri, le poate exploata. Compania a declarat că Mythos a găsit deja mii de bug-uri în software-uri populare, inclusiv în sisteme de operare. Unele vulnerabilități erau foarte vechi sau bine ascunse, cum ar fi o problemă găsită într-un sistem de operare open-source considerat sigur.
Un aspect important este că AI-ul devine rapid o unealtă puternică pentru hackeri. Nikesh Arora, CEO al Palo Alto Networks, a explicat că un singur hacker poate lansa atacuri care anterior necesitau echipe întregi. AI-ul nu obosește și poate răspunde foarte rapid. Acest lucru face ca atacurile să fie și mai periculoase, deoarece atacatorul are o șansă unică de a reuși, în timp ce apărătorul trebuie să fie perfect de fiecare dată.
Uniunea Europeană sprijină decizia Anthropic, având în vedere că modelele AI trebuie să respecte legislația europeană. Aceste reguli impun companiilor să gestioneze riscurile și să identifice modurile în care AI-ul ar putea fi folosit abuziv. Companiile sunt obligate să dezvolte modele care să fie rezistente la manipulare și să monitorizeze constant comportamentul acestora.
Cu toate acestea, chiar și cele mai avansate reglementări nu pot opri progresul tehnologic. Dacă Europa impune standarde stricte, alte țări, cum ar fi SUA sau China, ar putea dezvolta aceleași tehnologii fără restricții. Acest lucru creează o asimetrie, ceea ce înseamnă că, chiar dacă Europa își protejează utilizatorii, capabilitățile avansate ale AI-ului pot continua să se dezvolte în alte părți ale lumii.
Discussion Questions
- Ce implicații ar putea avea limitarea accesului la tehnologia AI asupra echilibrului puterii între organizațiile mari și cele mici?
- Cum ar trebui reglementările europene privind AI să evolueze pentru a preveni abuzurile fără a inhiba inovația?
- Care sunt implicațiile etice ale dezvoltării unui AI capabil să descopere și să exploateze vulnerabilități în software?
- În ce măsură credeți că societatea poate să se protejeze de riscurile reprezentate de AI, având în vedere abilitățile sale de a îmbunătăți metodele de atac cibernetic?
- Cum ar putea răspunde companiile din Europa provocărilor tehnologice din alte țări care nu au aceleași restricții legislative asupra AI-ului?