Cristiana Deca, Decalex: De ce utilizarea AI poate reprezenta o amenințare în acest moment?

apr. 18, 2023 | Comunitatea CLCC

După entuziasmul care a cuprins întreaga lume, odată cu anunțurile furnizorilor de soluții bazate pe inteligența artificială (AI), o serie de voci influente la nivel global trag un semnal de alarmă cu privire la expansiunea acestor soluții. Nu demult a fost dat publicității chiar un moratoriu (https://futureoflife.org/open-letter/pause-giant-ai-experiments), semnat de personalități ale spațiului public, în frunte cu Elon Musk, fondatorul Tesla, prin care acestea cred că e oportună suspendarea utilizării AI pe scara largă, datorită lipsei de reglementare și a pericolelor pe care le reprezintă utilizarea liberă a Inteligenței Artificiale (IA).

Întrebarea este cum s-a ajuns aici și care sunt argumentele acestor oameni influenți la nivel global, profund implicați în schimbările economice din ultimii ani, cunoscuți ca avangardiști și inovatori ai vremurilor prezente?

Apariția ChatGPT schimbă lucrurile

Chat GPT este un machine learning model, adică funcționează aidoma creierului uman, folosind „neuroni” interconectați, care pot învăța să identifice modele în date și să facă predicții despre ceea ce urmează să se întâmple în continuare.

Apariția soluției de la OpenAI, denumită ChatGPT este considerată o adevărată revoluție, întrucât este pentru prima dată când un chatbot ce are integrat inteligența artificială este antrenat (și încărcat) pe cantități uriașe de date de pe Internet, astfel încât să formuleze răspunsuri care pot părea că sunt formulate de oameni.

ChatGPT a câștigat un milion de utilizatori doar în prima săptămână de la lansare, iar website-ul ChatGPT primește în prezent aproximativ un miliard de vizitatori lunar, cu o valoare estimată de 100 milioane de utilizatori activi, potrivit comunicatelor OpenAI.

Statusul reglementărilor AI 

Odată cu apariția ChatGPT din ce în ce mai multe persoane au acces și utilizează inteligenta artificială atât pentru uz personal cât și în scop de business, dar domeniul a rămas încă nereglementat. În acest moment nu există nici un sistem de guvernanță a inteligenței artificiale, ceea ce înseamnă că nu există nicio pedeapsă în cazul în care un astfel de software este creat sau utilizat cu rea-intenție.

Deși există destul de multe inițiative de reglementare a zonei AI, nu există niciuna care să se afle într-un stadiu suficient de avansat. Uniunea Europeană, de exemplu, lucrează la Regulamentul privind Inteligența Artificială (AI Act), fiind primul act normativ ce are ca scop principal reglementarea AI-ul, pornind de la riscurile pe care acesta le prezintă pentru consumatori. Pe lângă acest demers, încă în lucru, există mai multe inițiative care încearcă să stabilească cadrul etic de dezvoltare a soluțiilor AI, încercând să traseze un cadru de principii morale ce trebuie transpuse în scrierea de cod a AI-ului.

Motivul principal pentru care Elon Musk și alți actori importanți au semnat moratoriul de suspendare a utilizării AI-ului pentru o perioada de șase luni, este pentru că nu există încă un cadru legislativ aplicabil și nici o matrice după care să stabilim care soluție AI lucrează în detrimentul oamenilor și care nu.

Cum pot fi afectați oamenii de utilizarea AI-ului?

În timp ce AI-ul are un potențial imens neexploatat,  utilizarea nereglementată poate duce la a încălcarea drepturilor omului, mai ales în ceea ce privește discriminarea anumitor segmente ale societății ca urmare a „algoritmilor părtinitori – biased”.

Deși AI-ul a devenit un trend abia acum, prin intermediul Chat GPT, poate și pentru că ChatGPt este atât de simplu de utilizat încât oricine are o adresă de e-mail își face un cont în platformă și poate transmite mesaje către chatbot, nu trebuie să uităm că algoritmii de inteligență artificială sunt utilizați deja în foarte multe arii din viață noastră. În lipsa acestor reglementări clare de acces și utilizare este foarte probabil că va utilizarea soluțiilor AI, necontrolat și nereglementat, va afecta în primul rând grupurile  vulnerabile, care sunt deja profilate și hărțuite în spațiul non-digital, cum este cazul minorităților.

Riscurile la adresa drepturilor fundamentale ale omului apar în special când AI-ul stă la baza unor decizii automate ce au un impact masiv în viața de zi cu zi, cum ar fi: prelucrarea automată a datelor despre sănătatea unei persoane, prelucrarea datelor despre locul de muncă sau despre creditare. De exemplu, în 2015, Algoritmul de angajare al Amazon s-a dovedit a fi părtinitor cu femeile „pentru că algoritmul se baza pe număr de cv-uri depuse în ultimii zece ani și la vremea respectivă cei mai mulți dintre solicitanți au fost bărbați, astfel că AI-ul a fost instruit pentru a favoriza bărbați înaintea femeilor. (Real-life Examples of Discriminating Artificial Intelligence | by Terence Shin | Towards Data Science ). Și acesta este doar un exemplu.

La ce riscuri se pot expune businessurile prin utilizarea AI-ului?

Când vorbim despre riscurile la care se expun companiile prin utilizarea AI am identificat cel puțin patru aspecte de care trebuie să ținem cont.

Un  obstacol important în calea adoptării AI este lipsa de competențe și disponibilitatea personalului tehnic cu experiența și instruirea necesare pentru a implementa în mod eficient o astfel de soluție tehnică.

În al doilea rând, pornind de la datele la care compania oferă acces inteligenței artificiale pentru a învăța, aici se ridică problema legată de acuratețea datelor pe care va fi învățat algoritmul.

Următoarea problemă importantă este modul în care soluția tehnologică utilizează acele date, din punct de vedere al regulilor de confidențialitate și transparență. Întrucât conform regulilor de prelucrare a datelor din GDPR, companiile trebuie să asigure confidențialitatea datelor personale ale clienților (utilizatorilor) care intră în contact cu AI-ul.

Nu în ultimul rând, vorbim despre transparența în ceea ce privește modul în care a fost construit algoritmul, întrucât fără respectarea regulilor minimale de etică în dezvoltarea tehnologică, AI-ul poate genera răspunsuri ori soluții nepotrivite sau părtinitoare, care pot genera probleme de încredere pentru brandul care îl utilizează.

Sunt însă suficiente șase luni pentru ca un set de reglementări de bază să fie create și adoptate la nivel global, astfel încât să fie evitate, pe termen lung, aceste riscuri.

Cristiana Deca, Cofondator&CEO Decalex

Absolventă a Facultății de Drept a Universității București, cu masterat în Drept European, și în Design Thinking la M.I.T, Cristiana Deca a fondat, în urmă cu 10 ani, împreună cu alți doi parteneri, prima companie sută la sută  românească specializată pe servicii de conformitate în domeniul protecției datelor, Decalex.

Pasionată în special de zona care intersectează drepturile fundamentale ale omului cu evoluția tehnologiei, a obținut certificarea internațională a celei mai prestigioase organizații în domeniul prelucrării datelor, IAPP, ca expert în legislația europeană din domeniul protecției datelor cu caracter personal (CIPP/E). În calitate de cofondator al Asociației de Profesioniști în Domeniul Protecției Datelor din România (ASCPD), în perioada 2019-2022 a reprezentat România în Confederația Europeană a Asociațiilor de Profesioniști în Domeniul Protecției Datelor (CAPDPD). În anul 2021 a fost desemnată membru în board, dar și în Consiliul de Conformitate și Etică al organizației EIT Health, fiind invitată frecvent ca speaker la conferințe internaționale din zona de privacy si cybersecurity.

Decalex

Prima companie din România, fondată în anul 2010 de Cristiana Deca, Cristian Deca și Ciprian Harabagiu, care au identificat nevoia de a aduce o schimbare în serviciile de consultanță în conformitate din România. Cu o vastă expertiză juridică și tehnică, bazată cu pasiunea pentru business, cei trei fondatori au pus bazele unei echipe de consultanți de top recunoscută pentru soluțiile inovative de conformitate. Decalex a ocupat încă de la înființare si se menține pe poziția de lider național în soluții de conformitate în domeniul protecției datelor și securitatea informației.

INFOGRAFICE

ARTICOLE RECENTE

Mircea Ilie, Expert Economie Circulară: SGR-ul este o soluție care trebuie încercată!

„În teorie este un sistem bun care adresează o mulțime dintre problemele pe care le-am avut până acum și încearcă să schimbe modelele pe care le-am folosit și care nu au funcționat. SGR-ul este o soluție care trebuie încercată. Categoric nu merge perfect, suntem la început și avem foarte multe lucruri de îmbunătățit”, a declarat Mircea Ilie, Expert Economie Circulară.

URMĂREŞTE-NE ÎN SOCIAL MEDIA