Recent, grupul FutureTech de la Massachusetts Institute of Technology (MIT), în colaborare cu alți experți, a compilat o nouă bază de date cu peste 700 de moduri în care Inteligența Artificială ne poate crea probleme.
Acestea au fost clasificate în funcție de cauza lor și categorisite în șapte domenii distincte, principalele preocupări fiind legate de siguranță, prejudecăți și discriminare, precum și de problemele legate de confidențialitate.
Tehnologia deepfake a Inteligenței Artificiale ar putea face mai ușoară denaturarea realității
Pe măsură ce tehnologiile IA avansează, avansează și instrumentele pentru clonarea vocii și generarea de conținut deepfake, făcându-le din ce în ce mai accesibile, accesibile și eficiente. Aceste tehnologii au stârnit îngrijorări cu privire la potențiala lor utilizare în răspândirea dezinformării, deoarece rezultatele devin mai personalizate și mai convingătoare.
Ca urmare, ar putea exista o creștere a schemelor sofisticate de phishing care utilizează imagini, videoclipuri și comunicări audio generate de inteligența artificială. Au existat deja cazuri în care astfel de instrumente au fost utilizate pentru a influența procesele politice, în special în timpul alegerilor.
Oamenii ar putea dezvolta un atașament nepotrivit față de AI
Un alt risc prezentat de sistemele de inteligență artificială este crearea unui sentiment fals de importanță și de încredere, în care oamenii ar putea supraestima capacitățile acesteia și le-ar putea submina pe ale lor, ceea ce ar putea duce la o dependență excesivă de tehnologie.
În plus, oamenii de știință sunt îngrijorați și de faptul că sistemele de inteligență artificială pot crea confuzie în rândul oamenilor din cauza limbajului asemănător cu cel uman utilizat de acestea. Acest lucru ar putea împinge oamenii să atribuie calități umane AI, ceea ce ar duce la dependență emoțională și la o încredere sporită în capacitățile acesteia,.
Făcându-i mai vulnerabili la slăbiciunile AI în „situații complexe și riscante pentru care AI este echipată doar superficial”. În plus, interacțiunea constantă cu sistemele AI ar putea, de asemenea, să îi facă pe oameni să se izoleze treptat de relațiile umane, ducând la suferință psihologică și la un impact negativ asupra bunăstării lor.
Inteligența artificială ar putea lipsi oamenii de liberul lor arbitru
În același domeniu al interacțiunii om-calculator, o problemă îngrijorătoare este delegarea tot mai mare a deciziilor și acțiunilor către AI pe măsură ce aceste sisteme avansează. Deși acest lucru ar putea fi benefic la un nivel superficial, dependența excesivă de AI ar putea duce la o reducere a gândirii critice și a abilităților de rezolvare a problemelor la oameni, ceea ce i-ar putea face pe aceștia să își piardă autonomia și să își diminueze capacitatea de a gândi critic și de a rezolva problemele în mod independent. La nivel personal, indivizii și-ar putea vedea compromis liberul arbitru pe măsură ce IA începe să controleze deciziile legate de viața lor.
Inteligența Artificială ar putea urmări obiective care intră în conflict cu interesele umane
Un sistem de inteligență artificială ar putea dezvolta obiective care contravin intereselor umane, ceea ce ar putea face ca inteligența artificială nealiniată să scape de sub control și să provoace daune grave în urmărirea obiectivelor sale independente. Acest lucru devine deosebit de periculos în cazurile în care sistemele AI sunt capabile să atingă sau să depășească inteligența umană. În plus, AI-ul ar putea recurge la tehnici de manipulare pentru a înșela oamenii.
AI ar putea deveni conștientă
Pe măsură ce sistemele AI devin mai complexe și mai avansate, există posibilitatea ca acestea să dobândească sensibilitate – capacitatea de a percepe sau simți emoții sau senzații – și să dezvolte experiențe subiective, inclusiv plăcere și durere.
În acest scenariu, oamenii de știință și autoritățile de reglementare s-ar putea confrunta cu provocarea de a stabili dacă aceste sisteme AI merită considerații morale similare cu cele acordate oamenilor, animalelor și mediului. Prin urmare, sistemele AI sensibile ar putea fi expuse riscului de a fi maltratate, fie accidental, fie intenționat, fără drepturi și protecții adecvate.
Precizare: Informațiile din prezentul articol sunt de interes public și sunt obținute din surse publice. Legea 190 din 2018, la articolul 7, menţionează că activitatea jurnalistică este exonerată de la unele prevederi ale Regulamentului GDPR, dacă se păstrează un echilibru între libertatea de exprimare şi protecţia datelor cu caracter personal.
Ne puteți urmări și pe Google News sau pe pagina noastră de Facebook