Luni, 22 mai 2023, un cont de Twitter verificat numit „Bloomberg Feed” a distribuit un tweet în care susținea că a existat un explozie la Pentagon, însoțit de o imagine. Dacă vă întrebați ce legătură are asta cu inteligența artificială (AI), imaginea a fost una generată de inteligență artificială, tweet-ul devenind rapid viral și declanșând o scurtă scădere a pieței de valori. Lucrurile ar fi putut fi mult mai rău – o amintire clară a pericolelor inteligenței artificiale.
Pericole ale inteligenței artificiale
Nu trebuie să ne îngrijorăm doar despre știrile false. Există multe riscuri imediate sau potențiale asociate cu inteligența artificială, de la cele referitoare la confidențialitate și securitate până la probleme de părtinire și drepturi de autor. Ne vom scufunda în unele dintre aceste pericole ale inteligenței artificiale, vom vedea ce se face pentru a le atenua acum și în viitor și ne vom întreba dacă riscurile AI depășesc beneficiile.
Știri false
Când deepfake-urile au aterizat pentru prima dată, au apărut îngrijorări că ar putea fi folosite cu intenție rea. Același lucru s-ar putea spune și despre noul val de Generatoare de imagini AI, cum ar fi DALL-E 2, Midjourney sau DreamStudio. Pe 28 martie 2023, Imagini generate de AI ale Papei Francisc fals într-o jachetă puf Balenciaga albă și bucurându-se de mai multe aventuri, inclusiv skateboarding și jocul de poker a devenit viral. Cu excepția cazului în care ați studiat imaginile îndeaproape, era greu să distingeți aceste imagini de lucrurile reale.
În timp ce exemplul cu papa a fost, fără îndoială, puțin distractiv, imaginea (și tweetul însoțitor) despre Pentagon a fost orice altceva. Imaginile false generate de inteligența artificială au puterea de a deteriora reputația, de a pune capăt căsătoriilor sau carierelor, de a crea tulburări politice și chiar de a începe războaie dacă sunt folosite de oamenii nepotriviți – pe scurt, aceste imagini generate de inteligența artificială au potențialul de a fi extrem de periculoase dacă sunt utilizate greșit.
Cu generatoarele de imagini AI disponibile acum gratuit pentru folosirea oricui și cu Photoshop adaugă un generator de imagini AI la software-ul său popular, oportunitatea de a manipula imagini și de a crea știri false este mai mare ca niciodată.
Confidențialitate, securitate și piratare
Confidențialitatea și securitatea sunt, de asemenea, preocupări uriașe atunci când vine vorba de riscurile AI, un număr de țări interzicând deja ChatGPT al OpenAI. Italia a interzis modelul din motive legate de confidențialitate, considerând că nu respectă Regulamentul european general pentru protecția datelor (GDPR), în timp ce guvernele Chinei, Coreei de Nord și Rusiei l-au interzis din cauza temerilor că ar răspândi dezinformare..
De ce suntem atât de preocupați de confidențialitate când vine vorba de AI? aplicații AI și sistemele adună cantități mari de date pentru a învăța și a face predicții. Dar cum sunt stocate și prelucrate aceste date? Există un risc real ca încălcarea datelor, piratarea și ca informațiile să cadă în mâini greșite.
Nu doar datele noastre personale sunt în pericol. Hackingul AI este un risc real - nu s-a întâmplat încă, dar dacă cei cu intenții rău intenționate ar putea pirata sistemele AI, acest lucru ar putea avea consecințe grave. De exemplu, hackerii ar putea controla vehiculele fără șofer, pot sparge sisteme de securitate AI pentru a avea acces în locații extrem de sigure și chiar pot sparge sisteme de arme cu securitate AI.
Experții de la Agenția de Proiecte Avansate de Cercetare în Apărare a Departamentului de Apărare al SUA (DARPA) recunosc aceste riscuri și lucrează deja la proiectul DARPA Guaranteeing AI Robustness Against Deception (GARD), abordând problema de la zero. Scopul proiectului este de a se asigura că rezistența la hacking și manipulare este încorporată în algoritmi și AI.
Încălcarea drepturilor de autor
Un alt pericol al AI este încălcarea drepturilor de autor. Acest lucru poate să nu sune la fel de grav ca alte pericole pe care le-am menționat, dar dezvoltarea modelelor AI precum GPT-4 expune pe toată lumea un risc crescut de încălcare.
De fiecare dată când îi cereți lui ChatGPT să creeze ceva pentru dvs. – fie că este o postare pe blog despre călătorii sau un nume nou pentru afacerea dvs. – îi furnizați informații pe care apoi le folosește pentru a răspunde întrebărilor viitoare. Informațiile pe care vi le transmite ar putea încălca drepturile de autor ale altcuiva, motiv pentru care este atât de important să utilizați un detector de plagiat și să editați orice conținut creat de AI înainte de a-l publica.
Diviziunea societății și a datelor
AI nu este uman, așa că nu poate fi părtinitoare, nu? Gresit. Oamenii și datele sunt folosite pentru a antrena modele AI și chatbots, ceea ce înseamnă că datele sau personalitățile părtinitoare vor avea ca rezultat o IA părtinitoare. Există două tipuri de părtinire în IA: părtinire societală și părtinire a datelor.
Cu multe părtiniri prezente în societatea de zi cu zi, ce se întâmplă atunci când aceste părtiniri devin parte din IA? Programatorii responsabili cu antrenarea modelului ar putea avea așteptări părtinitoare, care apoi își fac loc în sistemele AI..
Sau datele folosite pentru a antrena și dezvolta o IA ar putea fi incorecte, părtinitoare sau colectate cu rea-credință. Acest lucru duce la părtinirea datelor, care poate fi la fel de periculoasă ca și părtinirea societății. De exemplu, dacă un sistem de recunoaștere facială este antrenat folosind în principal fețele persoanelor albe, poate avea dificultăți să-i recunoască pe cei din grupurile minoritare, perpetuând opresiunea.
Roboții care ne ocupă locurile de muncă
Dezvoltarea chatbot-urilor precum ChatGPT și Google Bard a deschis o nouă îngrijorare în jurul AI: riscul ca roboți să ne ocupe locurile de muncă. Vedem deja scriitori din industria tehnologiei înlocuiți de AI, dezvoltatori de software îngrijorați că își vor pierde locurile de muncă din cauza roboților și companii care folosesc ChatGPT pentru a crea conținut de blog și conținut de rețele sociale, în loc să angajeze scriitori umani.
Conform celor Raportul privind viitorul locurilor de muncă 2020 al Forumului Economic Mondial, se așteaptă ca AI să înlocuiască 85 de milioane de locuri de muncă în întreaga lume până în 2025. Chiar dacă AI nu îi înlocuiește pe scriitori, este deja folosit ca instrument de mulți. Cei care au locuri de muncă care riscă să fie înlocuiți de AI ar putea avea nevoie să se adapteze pentru a supraviețui – de exemplu, scriitorii pot deveni ingineri prompti AI, permițându-le să lucreze cu instrumente precum ChatGPT pentru crearea de conținut, mai degrabă decât să fie înlocuiți de aceste modele.
Riscuri potențiale viitoare ale IA
Toate acestea sunt riscuri imediate sau care se profilează, dar cum rămâne cu unele dintre pericolele mai puțin probabile, dar încă posibile, ale IA pe care le-am putea vedea în viitor? Acestea includ lucruri precum IA care este programată pentru a dăuna oamenilor, de exemplu, arme autonome antrenate să ucidă în timpul unui război.
Apoi, există riscul ca inteligența artificială să se concentreze asupra obiectivului său programat, dezvoltând comportamente distructive în timp ce încearcă să atingă acel obiectiv cu orice preț, chiar și atunci când oamenii încearcă să împiedice acest lucru să se întâmple.
Skynet ne-a învățat ce se întâmplă când un AI devine sensibil. Cu toate acestea, deși este posibil ca inginerul Google Blake Lemoine să fi încercat să convingă pe toată lumea că LaMDA, generatorul de chatbot inteligent artificial de la Google a fost sensibil în iunie 2022, din fericire, nu există nicio dovadă până în prezent care să sugereze că este adevărat.
Provocările reglementării IA
Luni, 15 mai 202, CEO-ul OpenAI, Sam Altman, a participat la prima audiere a Congresului privind inteligența artificială, avertisment: „Dacă această tehnologie merge prost, poate merge foarte prost.” CO OpenAI a spus clar că este în favoarea reglementării și a prezentat multe dintre propriile sale idei în audiere. Problema este că AI evoluează cu o asemenea viteză, este dificil să știi de unde să începi cu reglementarea..
Congresul vrea să evite să facă aceleași greșeli făcute la începutul erei rețelelor sociale, iar o echipă de experți, alături de liderul majorității din Senat, Chuck Schumer, lucrează deja la reglementări care ar impune companiilor să dezvăluie ce surse de date au folosit pentru a instrui modele și cine i-a antrenat. Poate trece ceva timp până când exact cum va fi reglementată AI să devină clar, totuși și, fără îndoială, vor exista reacții din partea companiilor AI.
Amenințarea unei inteligențe generale artificiale
Există și riscul creării unei inteligențe generale artificiale (AGI) care ar putea îndeplini orice sarcini pe care le-ar putea îndeplini o ființă umană (sau un animal). Adesea menționat în filmele SF, probabil că suntem încă la zeci de ani de o astfel de creație, dar dacă și când creăm un AGI, acesta ar putea reprezenta o amenințare pentru umanitate.
Multe persoane publice susțin deja credința că inteligența artificială reprezintă o amenințare existențială pentru oameni, inclusiv Stephen Hawking, Bill Gates și chiar fostul CEO Google Eric Schmidt, care a declarat: „Inteligenta artificială ar putea prezenta riscuri existențiale și guvernele trebuie să știe cum pentru a ne asigura că tehnologia nu este folosită greșit de oameni răi.”
Așadar, este inteligența artificială periculoasă și riscurile sale depășesc beneficiile? Juriul este încă în discuție, dar vedem deja dovezi ale unora dintre riscurile din jurul nostru chiar acum. Alte pericole sunt mai puțin probabil să se concretizeze în curând, dacă este deloc. Un lucru este clar, totuși: pericolele AI nu ar trebui subestimate. Este de cea mai mare importanță să ne asigurăm că AI este reglementată corespunzător încă de la început, pentru a minimiza și, sperăm, a atenua orice riscuri viitoare.
.