Simona Ionescu / Redactor Șef

Un laureat al premiului Nobel compară superinteligența artificială cu pandemiile și războaiele nucleare. Omenirea în pericol!

Un laureat al premiului Nobel compară superinteligența artificială cu pandemiile și războaiele nucleare. Omenirea în pericol!
Experți de top în domeniul inteligenței artificiale dau avertizări care dau fiori. Cercetătorii susțin că dezvoltarea necontrolată a tehnologiilor superinteligente face un mare rău omenirii.

Geoffrey Hinton, laureat al Premiului Nobel pentru Fizică în 2024 pentru contribuțiile sale la AI, și Yoshua Bengio, câștigător al Premiului Turing, alături de directori executivi de la companii precum OpenAI, Anthropic și Google DeepMind au semnat o scrisoare în care avertizează despre riscul superinteligenței artificiale pentru omenire.

Specialiștii compară dezvoltarea necontrolată a tehnologiilor superinteligente cu pandemiile sau războaiele nucleare și subliniază necesitatea de a conștientiza că riscul de extincție cauzat de AI este o „prioritate globală”.

Un salt periculos de la AI restrânsă la superinteligență

Nate Soares, fost inginer la Google și Microsoft, acum președinte al Institutului de Cercetare a Inteligenței Artificiale, afirmă că riscul de extincție cauzat de AI este de „cel puțin 95%” dacă se menține cursul actual.

El compară situația cu o mașină care gonește cu 160 km/h spre o prăpastie: „Nu spun că nu putem opri mașina, dar pur și simplu ne îndreptăm cu toată puterea spre stâncă”.

Ce se va întâmpla când inteligența artificială va atinge nivelul de Inteligență Generală Artificială

Un laureat al premiului Nobel compară superinteligența AI cu pandemiile sau războaiele nucleare. Ce se poate întâmpla cu omenirea
Super inteligența artificială poate distruge omenirea. Sursă foto: Dev Community

Oamenii de știință prevăd că în curând (poate fi vorba de un an sau zece ani), inteligența artificială va atinge nivelul de Inteligență Generală Artificială (AGI), echivalentă cu inteligența umană, capabilă de planificare pe termen lung și raționament multidisciplinar.

Iar din acest punct până la tranziția către Superinteligența Artificială (ASI) ar fi doar un pas. Sigur că există și multe avantaje, pentru că, spun oamenii de știință mașinile pot rezolva probleme imposibile pentru omenire, de la vindecarea cancerului sau realizarea fuziunii nucleare.

Scenarii ipotetice alarmante

Pe de altă parte însă, cercetătorii au și scenarii ipotetice alarmante, pentru că o inteligență artificială superinteligentă ar putea lansa arme biologice care să infecteze populații întregi în mod silențios, declanșându-le ulterior.

„Poți crea computere inteligente fără să ai habar ce naiba faci”, subliniază Nate Soares. La rândul său, directorul executiv al PauseAI, Holly Elmore care estimează șansele de extincție la 15-20%, subliniază că AI-ul ar putea duce la o „deresponsabilizare treptată”.

Ce înseamnă asta? Că oamenii pierd controlul politic și economic și ajung să trăiască într-o lume controlată de mașini. „Începem acum să vedem primele semne de avertizare. Omenirea trebuie să decidă dacă va opri mașina înainte de prăpastie”, avertizează Nate Soares.

 

Precizare: Informațiile din prezentul articol sunt de interes public și sunt obținute din surse publice. Legea 190 din 2018, la articolul 7, menţionează că activitatea jurnalistică este exonerată de la unele prevederi ale Regulamentului GDPR, dacă se păstrează un echilibru între libertatea de exprimare şi protecţia datelor cu caracter personal.

Recomandarile noastre
Stiri parteneri

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *