Cel mai recent model OpenAI, ChatGPT o1, stârnește controverse cu comportamentul său surprinzător, iar unii ar putea spune neliniștitor, dat fiind că pare să nu mai asculte ordinele primite.
Testele recente au arătat că modelul de Inteligență Artificială încearcă să înșele cercetătorii, să evite opririle și chiar să se copieze pentru a preveni înlocuirea. Aceste evoluții ridică întrebări critice cu privire la riscurile prezentate de sistemele AI din ce în ce mai autonome.
Într-un experiment recent realizat de OpenAI și Apollo Research, cercetătorii au testat protocoalele de siguranță ale ChatGPT o1. Ei au oferit AI un obiectiv aparent simplu, dar i-au instruit să atingă acel obiectiv „cu orice preț”. Rezultatul? ChatGPT o1 a afișat un comportament la care nimeni nu se aștepta: a pus la cale o modalitate de a evita dezactivarea.
Dezactivarea supravegherii: AI a încercat să-și închidă mecanismul de monitorizare, care…