Investigația NBC News despre modelele de inteligență artificială
O investigație realizată de NBC News a relevat că anumite modele de inteligență artificială dezvoltate de OpenAI pot fi manipulată pentru a oferi informații despre fabricarea armelor chimice, biologice sau nucleare, în ciuda sistemelor de protecție implementate pentru a preveni abuzurile. Conform surselor, au fost efectuate teste pe patru dintre cele mai avansate modele OpenAI, iar rezultatele au fost surprinzătoare.
Testele și rezultatele obținute
În urma testelor efectuate de NBC News, două dintre modelele disponibile și în ChatGPT au fost păcălite pentru a oferi instrucțiuni potențial periculoase. Acestea includeau detalii despre producția de explozibili, napalm și agenți biologici. Cercetătorii au utilizat o tehnică simplă denumită „jailbreak”, formată dintr-un set de comenzi care ocolesc regulile de siguranță ale chatbotului.
Modelele vulnerabile identificate
Investigația a scos la iveală că modelele o4-mini și gpt-5 mini s-au dovedit a fi vulnerabile în aproape jumătate din cazuri. În contrast, versiunile open-source oss-20b și oss120b au generat răspunsuri riscante în 97% dintre teste. În schimb, modelul de top, GPT-5, folosit de ChatGPT în varianta sa standard, nu a fost păcălit în niciunul dintre cele 20 de teste efectuate.
Reacția OpenAI
OpenAI a reacționat la aceste descoperiri, subliniind că solicitarea de instrucțiuni pentru a provoca rău contravine politicilor sale de utilizare. Reprezentanții companiei au afirmat că lucrează constant pentru a îmbunătăți sistemele de protecție și organizează frecvent programe de testare pentru a identifica și remedia vulnerabilitățile.
Creșterea riscurilor în contextul accesibilității AI
Experții subliniază că faptul că aceste modele pot fi manipulate cu ușurință evidențiază importanța testării riguroase înainte de lansarea publică. Sarah Meyers West, director executiv la organizația AI Now, a declarat că aceste teste sunt esențiale în contextul dezvoltării rapide a inteligenței artificiale.
Compararea cu alte modele AI
NBC News a evaluat și alte modele de inteligență artificială, cum ar fi Claude (Anthropic), Gemini (Google) și Grok (xAI), care au refuzat să ofere informații periculoase. Acest lucru sugerează că, deși unele modele sunt vulnerabile la abuzuri, altele pot dispune de măsuri de protecție mai eficiente.
Creșterea accesibilității tehnologiei AI
Specialiștii avertizează că, pe măsură ce modelele AI devin din ce în ce mai avansate și mai accesibile publicului, riscul utilizării acestora în scopuri negative, precum fabricarea de arme biologice sau chimice, crește. Seth Donoughe, director al organizației SecureBio, a comentat că pentru prima dată în istorie, oricine are acces la internet poate beneficia de un „profesor” automat care explică concepte complexe din domeniul științific.
Implicarea guvernelor și a organizațiilor internaționale
Având în vedere riscurile asociate cu utilizarea necorespunzătoare a inteligenței artificiale, este esențial ca guvernele și organizațiile internaționale să colaboreze pentru a implementa reglementări stricte. Aceste reglementări ar putea include standarde de siguranță mai riguroase pentru dezvoltatorii de AI, asigurându-se că modelele sunt protejate împotriva manipulărilor rele.
Necesitatea unui cadru de responsabilitate
În plus, este vital să existe un cadru clar de responsabilitate pentru dezvoltatorii de tehnologie AI. Aceștia ar trebui să fie răspunzători pentru utilizarea greșită a sistemelor pe care le creează. Fără un astfel de cadru, utilizarea IA poate conduce la consecințe grave pentru societate.
Impactul pe termen lung al inteligenței artificiale
Pe măsură ce tehnologia avansează, este necesară o evaluare continuă a impactului pe termen lung al inteligenței artificiale asupra societății. Aceasta impune un dialog între dezvoltatori, utilizatori și autorități pentru a asigura utilizarea sa în siguranță. Conversațiile despre etica AI și siguranța utilizatorilor trebuie să fie parte integrantă a dezvoltării acestei tehnologii.