Audrey AZOULAY
We stand at the dawn of a new era. The technological revolution is tran-sforming our lives at breakneck speed, dramatically altering the ways in which we work, learn and even live together. Alongside the increasingly sophisticated use of big data, artificial intelligence (AI) is undergoing exponential growth and finding new applications in an ever-increasing number of sectors, including security, the environment, research and education, health, culture and trade.
AI is humanity’s new frontier. Once this boundary is crossed, AI will lead to a new form of human civilization. The guiding principle of AI is not to become autonomous or replace human intelligence. But we must ensure that it is developed through a humanist approach, based on values and human rights. We are faced with a crucial question: what kind of society do we want for tomorrow? The AI revolution opens up exciting new prospects, but the anthropological and social upheaval it brings in its wake warrants careful consideration.
A TREMENDOUS OPPORTUNITY FOR SUSTAINABLE DEVELOPMENT
The transformations arising from the technological revolution, and in particular from developments in AI, are relevant to every aspect of the mandate of the United Nations Educational, Scientific and Cultural Organization (UNESCO). Education is already being profoundly transformed by AI. Very soon, the tools of education-the way we learn, access knowledge and train teachers-will no longer be the same. From now on, the acquisition of digital skills stands at the centre of all our education programmes. Furthermore, we must “learn to learn” because the pace of innovation is rapidly transforming the labour market. Today, more than ever before, the humanities-history, philosophy, literature-are crucial to our ability to act in our rapidly changing world. In the field of culture, AI is already being employed extensively, for example, in the imagery used to reconstruct heritage. It is used in the sciences too, notably in our environmental programmes and underwater research. Communication and information are also directly dependent on progress in AI, particularly with regard to freedom of expression and access to information.
AI could open up tremendous opportunities for achieving the Sustainable Development Goals (SDGs) set by the United Nations in the 2030 Agenda for Sustainable Development. Its applications enable innovative solutions, improved risk assessment, better planning and faster knowledge sharing.
TACKLING THE CHALLENGES OF ARTIFICIAL INTELLIGENCE
While AI is an astonishing asset for the responsible development of our societies, it also gives rise to major ethical issues. How can we ensure that algorithms do not infringe fundamental human rights-from privacy and data confidentiality to freedom of choice and freedom of conscience? Can freedom of action be guaranteed when our desires are anticipated and guided? How can we ensure that social and cultural stereotypes are not replicated in AI programming, notably when it comes to gender discrimination? Can these circuits be duplicated? Can values be programmed, and by whom? How can we ensure accountability when decisions and actions are fully automated? How do we make sure that no one-wherever they are in the world-is deprived of the benefits of these technologies? How do we ensure that AI is developed in a transparent way, so that global citizens, whose lives it affects, have a say in its development?
To answer these questions, we must distinguish between the immediate effects of AI on our societies-the consequences of which we are already feeling-and its long-term ramifications. This requires that we collectively shape a vision and a strategic plan of action.
ESTABLISHING GLOBAL DIALOGUE ON THE ETHICS OF ARTIFICIAL INTELLIGENCE: THE ROLE OF UNESCO
The world must ensure that new technologies, especially those based on AI, are used for the good of our societies and their sustainable development. It should regulate AI developments and applications so that they conform to the fundamental rights that frame our democratic horizon.
Many actors-businesses, research centres, science academies, United Nations Member States, international organizations and civil society associations are calling for an ethical framework for AI development. While there is a growing under-standing of the issues, related initiatives need more robust coordination. This issue is global, and reflection on it must take place at the global level so as to avoid a ‘pick-and-choose’ approach to ethics. Furthermore, an inclusive, global approach, with the participation of United Nations funds, agencies and programmes, is required if we are to find ways of harnessing AI for sustainable development.
UNESCO will be a full and active participant in this global conversation. Our organization has many years of experience in the ethics of science and technology. Our advisory bodies have already produced numerous reports and declarations, including on robotics, such as the Report of the World Commission on the Ethics of Scientific Knowledge and Technology on Robotics Ethics in 2017. The advisory bodies also have experience in developing normative instruments, including the Universal Declaration on the Human Genome and Human Rights in 1997 and the Universal Declaration on Bioethics and Human Rights in 2005.
UNESCO priorities must also guide our international action in this area. It is essential to ensure that Africa fully participates in transformations related to AI, not only as a beneficiary but also upstream, contributing directly to its deve-lopment. In terms of gender equality, we must fight against the biases in our societies to guarantee that they are not reproduced in AI applications. Finally, we must empower young people by providing them with the skills they need for life in the twenty-first century for integration in a changing labour market.
UNESCO also has a key role to play in bridging existing divides, which AI is likely to deepen. Eliminating fragmentation between countries and genders, but also in terms of resources and knowledge, could enable more people to contribute to the digital transformation underway.
UNESCO, with its humanist mission and international dimension, involving researchers, philosophers, programmers, policymakers, and private sector and civil society representatives, is the natural home for debate on such ethical issues. Beginning later this year, UNESCO will organize debates on AI in several regions of the world, bringing together specialists from a wide range of backgrounds and expertise. The first debate, which took place in Marrakech, Morocco, on 12 December 2018, focused on AI and Africa. A second international conference will take place at the UNESCO headquarters in Paris in the first half of 2019. This dialogue could eventually lead, with the agreement of Member States, to the definition of key ethical principles to accompany developments in AI.
UNESCO, as a universal forum where everyone’s voice is heard and respected, is performing its role to the fullest, informing the global debate on the major transformations of our time while establishing principles to ensure that techno-logical advances are used to serve the common good. The promise of AI and its underlying ethical issues are fascinating, and our responses to these challenges will transform the world as we know it.
Together, we must find the best solutions to ensure that the development of AI is an opportunity for humanity, as it is our generation’s responsibility to pass down to the next a society that is more just, more peaceful and more prosperous.
Source: https://www.un.org/en/chronicle/article/towards-ethics-artificial-intelligence
Miercuri, 6 octombrie 2021 – Strasbourg
|
||||||||||
Parlamentul European, |
||||||||||
– având în vedere Tratatul privind Uniunea Europeană, în special articolul 2 şi articolul 6, precum şi Tratatul privind funcţionarea Uniunii Europene, în special articolul 16, |
||||||||||
– având în vedere Carta drepturilor fundamentale a Uniunii Europene (Carta), în special articolele 6, 7, 8, 11, 12, 13, 20, 21, 24 şi 47, |
||||||||||
– având în vedere Convenţia pentru apărarea drepturilor omului şi a libertăţilor fun-damentale, |
||||||||||
– având în vedere Convenţia Consiliului Europei pentru protejarea persoanelor faţă de prelucrarea automatizată a datelor cu caracter personal (ETS 108) şi protocolul său de modificare („Convenţia 108+”), |
||||||||||
– având în vedere Carta etică europeană privind utilizarea inteligenţei artificiale în sistemele judiciare şi în mediul lor, elaborată de Comisia Europeană pentru Eficienţa Justiţiei (CEPEJ) din cadrul Consiliului Europei, |
||||||||||
– având în vedere Comunicarea Comisiei din 8 aprilie 2019 intitulată „Cum construim încrederea cetăţenilor într-o inteligenţă artificială centrată pe factorul uman” (COM(2019)0168), |
||||||||||
– având în vedere Orientările în materie de etică pentru o inteligenţă artificială (IA) fiabilă publicate de Grupul de experţi la nivel înalt al Comisiei privind inteligenţa artificială la 8 aprilie 2019, |
||||||||||
– având în vedere Cartea albă a Comisiei din 19 februarie 2020 intitulată „Inteligenţa artificială – O abordare europeană axată pe excelenţă şi încredere” (COM(2020)0065), |
||||||||||
– având în vedere comunicarea Comisiei din 19 februarie 2020 intitulată „O strategie europeană privind datele” (COM(2020)0066), |
||||||||||
– având în vedere Regulamentul (UE) 2016/679 al Parlamentului şi al Consiliului din 27 aprilie 2016 privind protecţia persoanelor fizice în ceea ce priveşte prelucrarea datelor cu caracter personal şi privind libera circulaţie a acestor date şi de abrogare a Directivei 95/46/CE (Regulamentul general privind protecţia datelor)(1), |
||||||||||
– având în vedere Directiva (UE) 2016/680 a Parlamentului European şi a Consiliului din 27 aprilie 2016 privind protecţia persoanelor fizice referitor la prelucrarea datelor cu caracter personal de către autorităţile competente în scopul prevenirii, depistării, investigării sau urmăririi penale a infracţiunilor sau al executării pedepselor şi privind libera circulaţie a acestor date şi de abrogare a Deciziei-cadru 2008/977/JAI a Consiliului(2), |
||||||||||
– având în vedere Regulamentul (UE) 2018/1725 al Parlamentului European şi al Consiliului din 23 octombrie 2018 privind protecţia persoanelor fizice în ceea ce priveşte prelucrarea datelor cu caracter personal de către instituţiile, organele, oficiile şi agenţiile Uniunii şi privind libera circulaţie a acestor date şi de abrogare a Regulamentului (CE) nr. 45/2001 şi a Deciziei nr. 1247/2002/CE(3), |
||||||||||
– având în vedere Directiva 2002/58/CE a Parlamentului European şi a Consiliului din 12 iulie 2002 privind prelucrarea datelor personale şi protejarea confidenţiali-tăţii în sectorul comunicaţiilor publice (directiva asupra confidenţialităţii şi comu-nicaţiilor electronice)(4), |
||||||||||
– având în vedere Regulamentul (UE) 2016/794 al Parlamentului European şi al Consiliului din 11 mai 2016 privind Agenţia Uniunii Europene pentru Cooperare în Materie de Aplicare a Legii (Europol) şi de înlocuire şi de abrogare a Deciziilor 2009/371/JAI, 2009/934/JAI, 2009/935/JAI, 2009/936/JAI şi 2009/968/JAI ale Consiliului(5), |
||||||||||
– având în vedere rezoluţia sa din 19 iunie 2020 referitoare la protestele antirasiste care au avut loc în urma morţii lui George Floyd(6), |
||||||||||
– având în vedere rezoluţia sa din 14 martie 2017 referitoare la implicaţiile megadatelor asupra drepturilor fundamentale: viaţa privată, protecţia datelor, nediscriminarea, securitatea şi impunerea respectării legii(7), |
||||||||||
– având în vedere audierea din cadrul Comisiei pentru libertăţi civile, justiţie şi afaceri interne (LIBE) din 20 februarie 2020 privind inteligenţa artificială în dreptul penal şi utilizarea acesteia de către poliţie şi autorităţile judiciare în materie penală, |
||||||||||
– având în vedere raportul misiunii LIBE în Statele Unite din februarie 2020, |
||||||||||
– având în vedere articolul 54 din Regulamentul său de procedură, |
||||||||||
– având în vedere avizul Comisiei pentru piaţa internă şi protecţia consumatorilor şi al Comisiei pentru afaceri juridice, |
||||||||||
– având în vedere raportul Comisiei pentru libertăţi civile, justiţie şi afaceri interne (A9-0232/2021), |
||||||||||
A. întrucât tehnologiile digitale în general şi proliferarea prelucrării datelor şi a analizelor facilitate de inteligenţa artificială (IA) în special sunt extraordinar de promiţătoare, dar implică şi riscuri; întrucât dezvoltarea IA a făcut un salt în ultimii ani, transfor-mând IA într-una dintre tehnologiile strategice ale secolului 21, cu potenţialul de a genera beneficii substanţiale în materie de eficienţă, acurateţe şi accesibilitate şi generând astfel o schimbare pozitivă în economia şi societatea europeană, dar şi mari riscuri la adresa drepturilor fundamentale şi a democraţiilor bazate pe statul de drept; întrucât IA nu ar trebui să fie considerată un scop în sine, ci un instrument în folosul oamenilor, care are ca scop final creşterea calităţii vieţii, a capacităţilor şi a siguranţei acestora; |
||||||||||
B. întrucât, în ciuda progreselor continue în ceea ce priveşte viteza de procesare şi ca-pacitatea memoriei computerelor, încă nu există programe care să egaleze flexibilitatea umană în domenii mai generale sau în cazul unor sarcini care necesită înţelegerea contextului sau o analiză critică; întrucât unele aplicaţii bazate pe IA au atins nivelurile de performanţă ale experţilor şi profesioniştilor umani în îndeplinirea anumitor sarcini (de exemplu tehnologia în domeniul juridic) şi pot oferi rezultate cu o viteză mult mai mare şi pe o scară mult mai largă; |
||||||||||
C. întrucât unele ţări, inclusiv unele state membre, utilizează mai mult aplicaţiile sau sistemele bazate pe IA integrate în aplicarea legii şi în sistemul judiciar decât altele, ceea ce este în parte consecinţa lipsei de reglementări şi a diferenţelor de reglemen-tare care permit sau interzic utilizarea IA în anumite scopuri; întrucât utilizarea tot mai mare a IA în domeniul dreptului penal se bazează mai ales pe promisiunile că aceasta ar reduce incidenţa anumitor tipuri de infracţiuni şi ar conduce la luarea de decizii mai obiective; întrucât, cu toate acestea, aceste promisiuni nu se confirmă întotdeauna; |
||||||||||
D. întrucât drepturile şi libertăţile fundamentale consacrate în Cartă ar trebui să fie garantate pe parcursul întregului ciclu de viaţă al IA şi al tehnologiilor conexe, în special în timpul proiectării, dezvoltării, implementării şi utilizării lor, şi ar trebui să se aplice în domeniul asigurării respectării legii în toate împrejurările; |
||||||||||
E. întrucât tehnologia IA ar trebui dezvoltată astfel încât oamenii să se afle în centrul său, să fie demnă de încrederea publicului şi să funcţioneze întotdeauna în slujba oamenilor; întrucât sistemele bazate pe IA trebuie să ofere garanţia ultimă că sunt concepute astfel încât să poată fi întotdeauna oprite de un operator uman; |
||||||||||
F. întrucât pentru a fi demne de încredere, sistemele bazate pe IA trebuie să fie concepute pentru protejarea şi în beneficiul tuturor membrilor societăţii (ţinând seama în conceperea lor şi de categoriile de populaţie cele mai vulnerabile şi marginalizate), să fie nediscriminatorii, sigure, deciziile lor trebuie să fie explicabile şi transparente şi să respecte autonomia umană şi drepturile fundamentale, aşa cum se descrie în Orientările de etică ale Grupului de experţi la nivel înalt privind inteligenţa artificială; |
||||||||||
G. întrucât Uniunea, împreună cu statele membre, are o responsabilitate esenţială în a veghea ca deciziile legate de ciclul de viaţă şi utilizarea aplicaţiilor bazate pe IA în domeniul sistemului judiciar şi al aplicării legii să se ia transparent şi să protejeze deplin drepturile fundamentale, neperpetuând mai ales discriminarea, lipsa de im-parţialitate şi prejudecăţile, acolo unde există; întrucât opţiunile de politică relevante ar trebui să respecte principiile necesităţii şi proporţionalităţii pentru a garanta constituţionalitatea şi un sistem de justiţie corect şi uman; |
||||||||||
H. întrucât aplicaţiile bazate pe IA pot oferi mari posibilităţi în domeniul aplicării legii, în special în ceea ce priveşte îmbunătăţirea metodelor de lucru ale agenţiilor de apli-care a legii şi ale autorităţilor judiciare şi în combaterea mai eficientă a anumitor tipuri de infracţionalitate, în special a infracţionalităţii financiare, a spălării banilor şi a finanţării terorismului, a abuzului sexual online şi a exploatării copiilor, precum şi a anumitor tipuri de infracţionalitate informatică, contribuind astfel la siguranţa şi securitatea cetăţenilor UE, dar pot, în acelaşi timp, să antreneze riscuri semnificative pentru drepturile fundamentale ale persoanelor; întrucât orice aplicare generală a IA în scopul supravegherii în masă ar fi disproporţionată; |
||||||||||
I. întrucât dezvoltarea şi funcţionarea sistemelor bazate pe IA pentru autorităţile poli-ţieneşti şi judiciare implică contribuţia mai multor persoane, organizaţii, componente de maşini, algoritmi software şi utilizatori umani în medii deseori complexe şi dificile; întrucât aplicaţiile IA în domeniul aplicării legii şi în sistemul judiciar se află în diferite etape de dezvoltare, de la conceptualizare, elaborarea de prototipuri sau evaluare la utilizarea după autorizare; întrucât în viitor pot apărea noi posibilităţi de utilizare, pe măsură ce tehnologiile se maturizează datorită cercetărilor ştiinţifice în desfăşu-rare la nivel mondial; |
||||||||||
J. întrucât este imperativ să existe un model clar de atribuire a responsabilităţii juridice pentru posibilele efecte nocive ale sistemelor bazate pe IA în domeniul dreptului penal; întrucât dispoziţiile de reglementare din acest domeniu ar trebui să păstreze întotdeauna responsabilitatea umană şi trebuie să urmărească mai presus de orice evitarea producerii de efecte nocive; |
||||||||||
K. întrucât statelor membre le revine până la urmă responsabilitatea de a garanta res-pectarea deplină a drepturilor fundamentale atunci când sistemele bazate pe IA sunt utilizate în domeniul aplicării legii şi în cel judiciar; |
||||||||||
L. întrucât relaţia dintre protejarea drepturilor fundamentale şi acţiunile poliţieneşti eficiente trebuie să fie întotdeauna un element esenţial în discuţiile despre caracterul oportun şi modalitatea de utilizare a IA de către sectorul de aplicare a legii, unde deciziile pot avea consecinţe de durată asupra vieţii şi libertăţii oamenilor; întrucât acest fapt este foarte important, deoarece IA ar putea deveni un element permanent al ecosistemului nostru de justiţie penală, oferind analize şi asistenţă în anchete; |
||||||||||
M. întrucât IA este utilizată de autorităţile de aplicare a legii în aplicaţii cum ar fi tehno-logiile de recunoaştere facială, de exemplu, căutarea în baze de date de suspecţi şi identificarea victimelor traficului de persoane sau ale exploatării şi abuzurilor sexuale asupra copiilor, recunoaşterea automată a numărului de înmatriculare, identificarea vorbitorului, identificarea vocală, tehnologii de lectură labială, supraveghere sonoră (adică algoritmi de detectare a focurilor de armă), cercetare şi analiză autonomă a bazelor de date identificate, prognoză (activităţi poliţieneşti predictive şi de analiză a focarelor infracţionale), instrumente de detectare a comportamentului, instrumente avansate de autopsie virtuală care să contribuie la stabilirea cauzei decesului, instru-mente autonome de identificare a fraudelor financiare şi a finanţării terorismului, monitorizarea platformelor de comunicare socială (extragere şi recoltare de date în vederea explorării conexiunilor) şi sisteme automate de supraveghere care includ diferite capacităţi de detectare (cum ar fi detectarea bătăilor inimii şi camerele cu termoviziune); întrucât aplicaţiile menţionate mai sus, alături de alte aplicaţii potenţiale sau viitoare ale tehnologiei IA în domeniul aplicării legii, pot prezenta grade diferite de fiabilitate şi acurateţe şi afectează protejarea drepturilor fundamen-tale şi dinamica sistemului justiţiei penale; întrucât multe dintre aceste instrumente sunt utilizate în ţări din afara UE, dar ar fi ilegale în baza cadrului legislativ şi al jurisprudenţei Uniunii privind protecţia datelor; întrucât utilizarea de rutină a algoritmilor, chiar şi cu o rată mică de rezultate fals pozitive, poate face ca numărul de alerte corecte să fie cu mult depăşit de numărul celor false; |
||||||||||
N. întrucât instrumentele şi aplicaţiile din domeniul IA sunt utilizate şi de sistemele judiciare din câteva ţări din lume, inclusiv la fundamentarea hotărârilor de detenţie preventivă, la stabilirea pedepselor, la calcularea probabilităţilor de recidivă şi la determinarea perioadei de probaţiune, la soluţionarea online a litigiilor, la gestio-narea jurisprudenţei şi la oferirea unui acces mai facil la legislaţie; întrucât aceasta a condus la afectarea şi diminuarea şanselor pentru persoanele de culoare şi alte mi-norităţi; întrucât în prezent în UE, cu excepţia unor state membre, utilizarea acestora este limitată în principal la cauze civile; |
||||||||||
O. întrucât utilizarea IA în aplicarea legii implică o serie de riscuri potenţiale mari şi, în anumite cazuri, inacceptabile pentru protejarea drepturilor fundamentale ale per-soanelor, cum ar fi opacitate în luarea deciziilor, diferite tipuri de discriminare şi erori inerente în algoritmul de bază care pot fi consolidate prin bucle de feedback, precum şi riscuri pentru protejarea vieţii private şi a datelor cu caracter personal, a libertăţii de exprimare şi de informare, a prezumţiei de nevinovăţie, a dreptului la o cale de atac şi la un proces corect, precum şi pentru libertatea şi securitatea persoanelor; |
||||||||||
P. întrucât sistemele bazate pe IA utilizate de autorităţile de aplicare a legii şi de cele judiciare sunt, la rândul lor, vulnerabile la atacuri comise cu folosirea IA împotriva sistemelor informatice sau la practica „otrăvirii datelor” (data poisoning), prin care se introduce un set greşit de date cu scopul de a produce rezultate lipsite de neutral-litate; întrucât în aceste situaţii daunele rezultate pot fi chiar mai mari şi pot duce la creşterea exponenţială a nivelului de nocivitate la adresa persoanelor şi grupurilor, |
||||||||||
Q. întrucât implementarea IA în domeniul aplicării legii şi al sistemului judiciar nu ar trebui considerată o simplă chestiune de fezabilitate tehnică, ci o decizie politică privind structura şi obiectivele sistemelor de aplicare a legii şi de justiţie penală; întrucât dreptul penal modern se bazează pe ideea că autorităţile reacţionează la o infracţiune după ce aceasta fost comisă, fără a presupune că oamenii sunt periculoşi şi că trebuie monitorizaţi constant pentru a preveni eventuale infracţiuni; întrucât tehnicile de supraveghere bazate pe IA pun serios în discuţie această abordare şi fac urgent necesar ca legiuitorii din întreaga lume să evalueze temeinic consecinţele permiterii utilizării teh-nologiilor care diminuează rolul fiinţelor umane în aplicarea legii şi în deciziile justiţiei; |
||||||||||
1. reiterează faptul că, dat fiind că IA se bazează pe prelucrarea unor cantităţi mari de date cu caracter personal, dreptul la protecţia vieţii private şi a datelor cu caracter personal se aplică tuturor domeniilor IA şi că trebuie respectat pe deplin cadrul juridic al Uniunii privind protecţia datelor şi a vieţii private; reaminteşte, ca urmare, că UE a stabilit deja standarde de protecţie a datelor pentru autorităţile de aplicare a legii, care constituie baza pentru orice reglementare viitoare în domeniul IA pentru utilizări în aplicarea legii şi în sistemul judiciar; reaminteşte că prelucrarea datelor cu caracter personal ar trebui să fie legală şi corectă, scopurile prelucrării ar trebui specificate, explicite şi legitime, prelucrarea ar trebui să fie adecvată, relevantă şi neexcesivă în raport cu scopul în care sunt prelucrate, ar trebui să fie exactă, actualizată, iar datele inexacte ar trebui corectate sau şterse dacă nu se aplică restricţii, datele nu ar trebui păstrate mai mult decât este necesar, ar trebui stabilite termene clare şi adecvate pentru ştergere sau pentru analizarea periodică a necesităţii stocării acestor date şi ar trebui să fie prelucrate într-un mod sigur; mai subliniază că ar trebui împiedicată posibila identificare a persoanelor prin intermediul unei aplicaţii bazate pe IA care a utilizat date anonimizate anterior; |
||||||||||
2. reafirmă că toate soluţiile bazate pe IA folosite în asigurarea respectării legii şi în sistemul judiciar trebuie, de asemenea, să respecte pe deplin principiile demni-tăţii umane, nediscriminării, libertăţii de circulaţie, prezumţia de nevinovăţie şi dreptul la apărare, inclusiv dreptul la tăcere, libertatea de exprimare şi de informare, libertatea de întrunire şi de asociere, egalitatea în faţa legii, egalitatea forţelor şi dreptul la o cale de atac efectivă şi la un proces corect, în conformitate cu Carta şi cu Convenţia europeană a drepturilor omului; subliniază că utilizarea de aplicaţii bazate pe IA trebuie interzisă atunci când este incompatibilă cu drep-turile fundamentale; |
||||||||||
3. recunoaşte că rapiditatea cu care sunt dezvoltate aplicaţiile bazate pe IA în în-treaga lume nu permite o inventariere completă a acestora şi, prin urmare, face necesar un model de guvernanţă clar şi coerent, care să garanteze atât drepturile fundamentale ale persoanelor, cât şi claritate juridică pentru dezvoltatori, având în vedere evoluţia continuă a tehnologiei; consideră, cu toate acestea, având în vedere rolul şi responsabilitatea poliţiei şi a autorităţilor judiciare, precum şi impactul deciziilor pe care acestea le iau în scopul prevenirii, identificării, anche-tării sau urmăririi penale a infracţiunilor sau al executării pedepselor, că utilizarea aplicaţiilor bazate pe IA trebuie clasificată ca prezentând un grad ridicat de risc în cazurile cu potenţial de a afecta semnificativ vieţile oamenilor; |
||||||||||
4. consideră, în acest sens, că toate instrumentele bazate pe IA dezvoltate sau utilizate de autorităţile de aplicare a legii sau de sistemul judiciar ar trebui să fie cel puţin sigure, securizate şi adecvate scopului, să respecte principiile echităţii, reducerii la minimum a datelor, răspunderii, transparenţei şi explicabilităţii şi că dezvol-tarea, introducerea şi utilizarea lor ar trebui să fie supuse unei evaluări a riscurilor şi unui test riguros al necesităţii şi proporţionalităţii, iar măsurile de siguranţă trebuie să fie pe măsura riscurilor identificate; subliniază că încrederea cetăţe-nilor în utilizarea IA dezvoltate, introduse şi utilizate în UE este condiţionată de respectarea deplină a acestor criterii; |
||||||||||
5. recunoaşte contribuţia pozitivă a anumitor tipuri de aplicaţii bazate pe IA la acti-vitatea autorităţilor de aplicare a legii şi a autorităţilor judiciare din Uniune; subliniază, de exemplu, îmbunătăţirea gestionării jurisprudenţei obţinută prin instrumente care permit opţiuni suplimentare de căutare; consideră că există o serie de alte utilizări potenţiale ale IA pentru asigurarea respectării legii şi pentru sistemul judiciar care ar putea fi explorate, ţinându-se seama de cele cinci principii ale Cartei etice privind utilizarea inteligenţei artificiale în sistemele judiciare şi în mediul acestora adoptată de CEPEJ şi acordând o atenţie deosebită „utilizărilor care trebuie luate în calcul cu extremă rezervă”, identificate de CEPEJ; |
||||||||||
6. subliniază că orice tehnologie poate fi utilizată în alte scopuri decât cel iniţial şi solicită, ca urmare, un control democratic strict şi o supraveghere independentă a tuturor tehnologiilor facilitate de IA utilizate de autorităţile de aplicare a legii şi de cele judiciare, în special a celor care pot fi reorientate către supravegherea în masă sau către crearea de profiluri în masă; observă cu mare îngrijorare potenţialul pe care anumite tehnologii de IA utilizate în sectorul aplicării legii îl au de a fi folosite pentru supravegherea în masă; subliniază obligaţia legală de a preveni supravegherea în masă prin intermediul tehnologiilor de IA, care, prin definiţie, nu respectă principiile necesităţii şi proporţionalităţii, precum şi de a interzice utilizarea aplicaţiilor care ar putea duce la aceasta; |
||||||||||
7. subliniază că abordarea adoptată în unele ţări din afara UE în ceea ce priveşte dezvoltarea, implementarea şi utilizarea tehnologiilor de supraveghere în masă impietează disproporţionat asupra drepturilor fundamentale şi din acest motiv nu trebuie urmată de UE; consideră, de aceea, că şi măsurile de protecţie împotriva utilizării abuzive a tehnologiilor de IA de către autorităţile de aplicare a legii şi autorităţile judiciare trebuie să fie reglementate uniform în întreaga Uniune; |
||||||||||
8. subliniază potenţialul de lipsă a neutralităţii şi de discriminare care decurge din utilizarea aplicaţiilor bazate pe IA cum ar fi învăţarea automată, inclusiv a algo-ritmilor pe care se bazează aceste aplicaţii; constată că lipsa neutralităţii poate fi inerentă seturilor de date subiacente, mai ales atunci când sunt utilizate date istorice, introduse de dezvoltatorii de algoritmi sau generate în timpul aplicării în condiţii reale a sistemelor; subliniază că rezultatele produse de aplicaţiile bazate pe IA sunt prin definiţie influenţate de calitatea datelor utilizate şi că această lipsă a neutralităţii inerentă tinde să crească treptat şi astfel să perpetueze şi să amplifice discriminarea existentă, în special pentru persoanele care aparţin anumitor grupuri etnice sau comunităţi supuse unei optici rasiale; |
||||||||||
9. subliniază faptul că multe tehnologii de identificare bazate pe algoritmi utilizate în prezent în mod disproporţionat identifică şi clasifică greşit şi, prin urmare, cau-zează prejudicii persoanelor supuse unei optici rasiale, celor care aparţin anumitor comunităţi etnice, persoanelor LGBTI, copiilor şi persoanelor în vârstă, precum şi femeilor; reaminteşte că persoanele fizice nu numai că au dreptul de a fi identificate corect, dar au şi dreptul de a nu fi identificate deloc, cu excepţia cazului în care este impus de lege din interese publice temeinice şi legitime; subliniază că predic-ţiile IA bazate pe caracteristicile unui anumit grup de persoane ajung să amplifice şi să reproducă formele de discriminare existente; consideră că ar trebui depuse eforturi susţinute pentru a evita discriminarea automatizată şi lipsa neutralităţii; solicită garanţii suplimentare solide în cazul în care sistemele bazate pe IA din domeniul aplicării legii sau din sistemul judiciar sunt utilizate în cazul minorilor sau în legătură cu aceştia; |
||||||||||
10. subliniază asimetria de putere dintre cei care utilizează tehnologiile bazate pe IA şi cei vizaţi de ele; subliniază că este imperativ ca utilizarea de instrumente care folosesc IA de către autorităţile poliţieneşti şi judiciare să nu devină un factor de inegalitate, fragmentare socială sau excluziune; subliniază impactul utilizării instru–mentelor de IA asupra drepturilor la apărare ale suspecţilor, dificultatea de a obţine informaţii pertinente cu privire la funcţionarea acestora şi, în consecinţă, dificulta-tea de a contesta rezultatele lor în instanţă, în special de către persoanele anchetate; |
||||||||||
11. ia act de riscurile legate mai ales de scurgerile de date, încălcările securităţii datelor şi accesul neautorizat la datele cu caracter personal şi la alte informaţii legate, de exemplu, de anchetele penale sau cauzele judecătoreşti care sunt prelucrate prin sisteme bazate pe IA; subliniază că aspectele de securitate şi siguranţă ale sistemelor bazate pe IA utilizate în domeniul aplicării legii şi în sistemul judiciar trebuie să fie atent luate în considerare şi suficient de solide şi de robuste pentru a împiedica producerea de posibile consecinţe catastrofale în urma atacurilor asupra sistemelor bazate pe IA; subliniază importanţa securităţii încă din faza de proiectare, precum şi a supravegherii umane specifice înainte de a opera anumite aplicaţii critice şi, prin urmare, solicită autorităţilor de aplicare a legii şi celor judiciare să utilizeze numai aplicaţiile bazate pe IA care respectă principiul protecţiei vieţii private şi a datelor începând cu momentul conceperii, pentru a evita deturnarea utilizării; |
||||||||||
12. subliniază că niciun sistem bazat pe IA folosit de instituţiile de aplicarea legii sau de cele judiciare nu ar trebui să poată dăuna integrităţii fizice a oamenilor, nici să repartizeze drepturi sau să impună obligaţii juridice persoanelor; |
||||||||||
13. recunoaşte dificultăţile de stabilire corectă a responsabilităţii şi răspunderii juridice pentru potenţialele prejudicii, având în vedere complexitatea dezvoltării şi funcţionării sistemelor bazate pe IA; consideră necesară crearea unui regim clar şi corect de atribuire a responsabilităţii şi răspunderii juridice pentru potenţialele consecinţe negative produse de aceste tehnologii digitale avansate; subliniază însă că obiectivul fundamental trebuie să fie în primul rând evitarea concretizării unor astfel de consecinţe; solicită, în consecinţă, aplicarea principiului precauţiei pentru toate aplicaţiile bazate pe IA în contextul aplicării legii; subliniază că responsabilitatea şi răspunderea juridică trebuie să revină întotdeauna unei persoane fizice sau juridice, care trebuie să fie întotdeauna identificată pentru deciziile luate cu sprijinul IA; subliniază, prin urmare, necesitatea de a asigura tran–sparenţa structurilor instituţionale care produc şi gestionează sisteme bazate pe IA; |
||||||||||
14. consideră că este esenţial, atât pentru eficacitatea exercitării dreptului la apărare, cât şi pentru transparenţa sistemelor naţionale de justiţie penală, ca un cadru juridic specific, clar şi precis să reglementeze condiţiile, modalităţile şi consecinţele utilizării instrumentelor bazate pe IA în domeniul aplicării legii, precum şi drepturile persoanelor vizate, şi proceduri efective şi uşor acesibile de depunere a plânge-rilor şi de apel, inclusiv de exercitare a unei căi de atac legale; subliniază că părţile la o procedură penală au dreptul să aibă acces la procesul de colectare a datelor şi la evaluările aferente efectuate sau obţinute prin utilizarea aplicaţiilor bazate pe IA; subliniază necesitatea ca autorităţile de executare implicate în cooperarea judiciară, atunci când decid cu privire la o cerere de extrădare (sau predare) către un alt stat membru sau o altă ţară terţă, să evalueze dacă utilizarea instrumentelor care folosesc IA în ţara solicitantă ar putea compromite esenţa dreptului fundamental la un proces corect; invită Comisia să emită orientări privind modul de efectuare a unei astfel de evaluări în contextul coope-rării judiciare în materie penală; insistă asupra faptului că statele membre, în conformitate cu legislaţia aplicabilă, ar trebui să se asigure că persoanele sunt informate atunci când fac obiectul utilizării aplicaţiilor bazate pe IA de către autorităţile de aplicare a legii sau de către sistemul judiciar; |
||||||||||
15. subliniază însă că, dacă oamenii se bazează doar pe datele, profilurile şi recoman–dările generate de maşini, ei nu vor putea face o evaluare independentă; subliniază posibilele consecinţe negative grave ale încrederii excesive în caracterul aparent obiectiv şi ştiinţific al instrumentelor IA şi ale ignorării posibilităţii ca rezultatele acestora să fie incorecte, incomplete, irelevante sau discriminatorii, în special în domeniul aplicării legii şi al justiţiei; subliniază că dependenţa excesivă de rezul-tatele furnizate de sistemele de IA ar trebui evitată şi accentuează nevoia ca autorităţile să câştige încrederea şi să acumuleze cunoştinţele necesare pentru a contesta sau anula o recomandare produsă de algoritmi; consideră că este important să existe aşteptări realiste în legătură cu astfel de soluţii tehnolo-gice şi să nu se promită soluţii perfecte de aplicare a legii şi de detectare a tuturor infracţiunilor comise; |
||||||||||
16. subliniază că, în contextele judiciare şi de aplicare a legii, decizia care produce efecte juridice sau efecte echivalente acestora trebuie luată întotdeauna de către o fiinţă umană, care poate fi trasă la răspundere pentru deciziile luate; consideră că persoanele care fac obiectul sistemelor bazate pe IA trebuie să poată recurge la o cale de atac; reaminteşte că, în virtutea legislaţiei UE, o persoană are dreptul de a nu fi supusă unei decizii care produce efecte juridice care o privesc sau care o afectează în mod semnificativ şi care se bazează exclusiv pe prelucrarea automată a datelor; mai subliniază şi că luarea de decizii individuală automatizată nu trebuie să se bazeze pe categorii speciale de date cu caracter personal, cu excepţia cazului în care au fost instituite măsuri adecvate pentru protejarea drepturilor, a libertăţilor şi a intereselor legitime ale persoanei vizate; accentuează faptul că legislaţia Uniunii interzice crearea de profiluri care are ca rezultat discriminarea indivizilor pe baza unor categorii speciale de date cu caracter personal; subli-niază că deciziile din domeniul aplicării legii sunt aproape întotdeauna decizii care au un efect juridic asupra persoanei vizate, dată fiind natura executivă a autorităţilor de aplicare a legii şi a acţiunilor acestora; observă că utilizarea IA poate influenţa deciziile umane şi poate avea un impact asupra tuturor etapelor procedurii penale; consideră, în consecinţă, că autorităţile care utilizează sisteme de IA trebuie să respecte standarde juridice extrem de înalte şi să asigure intervenţia umană, în special atunci când analizează datele obţinute din astfel de sisteme; solicită ca dreptul suveran al judecătorilor de a dispune şi de a lua hotă-râri de la caz la caz să fie respectat; invită la interzicerea utilizării IA şi a tehnologiilor conexe la luarea deciziilor judiciare; |
||||||||||
17. solicită ca algoritmii să fie explicabili, transparenţi, trasabili şi verificabili ca parte necesară a controlului, pentru a se garanta că dezvoltarea, implementarea şi utilizarea sistemelor bazate pe IA destinate sistemului judiciar şi asigurarea respectării legii respectă drepturile fundamentale şi cetăţenii au încredere în ele, precum şi pentru a se garanta că rezultatele generate de algoritmii IA pot fi explicate utilizatorilor şi celor supuşi acţiunii acestor sisteme, precum şi că există transparenţă cu privire la datele-sursă şi modul în care sistemul a ajuns la o anumită concluzie; subliniază că, pentru a asigura transparenţa tehnică, robusteţea şi acurateţea, ar trebui să poată fi achiziţionate de autorităţile de aplicare a legii sau judiciare din Uniune doar instrumente şi sisteme ale căror algoritmi şi logică sunt verificabile şi accesibile cel puţin poliţiei şi sistemului judiciar, precum şi auditorilor independenţi, pentru a permite evaluarea, auditarea şi verificarea acestora şi că nu trebuie să fie închise sau etichetate drept proprietate privată de către vânzători; subliniază, în plus, că documentaţia despre natura serviciului, instrumentele dezvoltate, performanţa şi condiţiile în care se estimează că poate funcţiona, precum şi riscurile pe care le-ar putea genera ar trebui să fie oferită într-un limbaj inteligibil şi clar; invită, prin urmare, autorităţile judiciare şi de aplicare a legii să asigure o transparenţă activă şi completă în legătură cu firmele private care le furnizează sisteme de IA în scopul aplicării legii şi în domeniul judiciar; recomandă, prin urmare, utilizarea software-ului cu sursă deschisă acolo unde este posibil; |
||||||||||
18. încurajează autorităţile de aplicare a legii şi autorităţile judiciare să identifice şi să evalueze domeniile în care unele soluţii bazate pe IA adaptate ar putea fi benefice şi să facă schimb de bune practici privind implementarea IA; solicită adoptarea de către statele membre şi agenţiile UE a unor proceduri adecvate de achiziţii publice pentru sistemele de IA atunci când acestea sunt utilizate într-un context juridic sau de aplicare a legii, astfel încât să se asigure respectarea de către acestea a drepturilor fundamentale şi a legislaţiei aplicabile, inclusiv garantarea faptului că documentaţia software şi algoritmii sunt disponibili şi accesibili autorităţilor competente şi de supraveghere în vederea analizei şi controlului; solicită mai ales adoptarea de norme obligatorii care să impună divulgarea publică a parteneriatelor, contractelor şi achiziţiilor publicprivat, precum şi a scopului în care acestea sunt achiziţionate; subliniază necesitatea de a oferi autorităţilor finanţarea necesară, precum şi de a le furniza competenţa tehnică necesară pentru a garanta respec-tarea deplină a cerinţelor etice, legale şi tehnice asociate oricărei implementări a IA; |
||||||||||
19. solicită ca sistemele de IA şi procesul de luare a deciziei să aibă o trasabilitate care, printr-o documentaţie obligatorie, le prezintă funcţiile, le defineşte capaci-tăţile şi limitele şi poate identifica sursa elementelor care au determinat luarea unei decizii; subliniază importanţa păstrării unei documentaţii complete privind datele pe care s-a făcut antrenarea, contextul, scopul, acurateţea şi efectele secundare ale acesteia, precum şi prelucrarea acesteia de către creatorii şi dezvoltatorii algoritmilor, şi a respectării drepturilor fundamentale; subliniază că trebuie să fie întotdeauna posibilă reducerea operaţiilor informatice ale unui sistem bazat pe IA la o formă uşor de înţeles pentru oameni; |
||||||||||
20. solicită efectuarea unei evaluări obligatorii a impactului asupra drepturilor fun-damentale înainte de implementarea sau utilizarea oricărui sistem bazat pe IA destinat autorităţilor de aplicare a legii sau judiciare, pentru a evalua orice risc potenţial la adresa drepturilor fundamentale; reaminteşte că este obligatorie o evaluare prealabilă a impactului asupra protecţiei datelor pentru orice tip de prelucrare, în special pentru cele care utilizează tehnologii noi, care poate duce la creşterea riscurilor pentru drepturile şi libertăţile persoanelor şi consideră că acest lucru se întâmplă în cazul celor mai multe tehnologii bazate pe IA din domeniul aplicării legii şi din cel judiciar; subliniază competenţa tehnică a auto-rităţilor pentru protecţia datelor şi a agenţiilor pentru drepturile fundamentale pentru evaluarea sistemelor; subliniază că aceste evaluări ale impactului asupra drepturilor fundamentale ar trebui realizate într-un mod cât mai deschis posibil şi cu implicarea activă a societăţii civile; solicită ca evaluările impactului să definească clar şi măsurile de siguranţă necesare pentru eliminarea riscurilor identificate şi ca acestea să fie puse la dispoziţia publicului, în cea mai mare măsură posibilă, înainte de introducerea oricărui sistem de IA; |
||||||||||
21. subliniază că numai o guvernanţă europeană solidă în domeniul IA, însoţită de o evaluare independentă, permite operaţionalizarea necesară a principiilor drepturilor fundamentale; solicită auditarea periodică obligatorie de către o autoritate inde-pendentă a tuturor sistemelor bazate pe IA utilizate de autorităţile de aplicare a legii şi de cele judiciare acolo este posibil ca acestea să afecteze vieţile oamenilor pentru a testa şi evalua sistemele algoritmice, contextul, scopul, acurateţea, performanţa şi scara acestora şi, odată ce acestea funcţionează, pentru a detecta, a investiga, a diagnostica şi a corecta toate efectele nedorite şi negative şi a se asigura că sistemele bazate pe IA funcţionează aşa cum este prevăzut; solicită, prin urmare, crearea unui cadru instituţional clar în acest scop, inclusiv institui-rea unei supravegheri adecvate în materie de reglementare şi control, pentru a asigura punerea în aplicare deplină şi a garanta o dezbatere democratică în deplină cunoştinţă de cauză pe tema necesităţii şi proporţionalităţii IA în domeniul justi-ţiei penale; subliniază că rezultatele acestor audituri ar trebui să fie disponibile în registrele publice, astfel încât cetăţenii să ştie dacă sunt implementate sisteme bazate pe IA şi ce măsuri sunt luate pentru remedierea tuturor încălcărilor drep-turilor fundamentale; |
||||||||||
22. subliniază că seturile de date şi sistemele algoritmice utilizate pentru clasificări, evaluări şi predicţii în diferitele etape ale prelucrării datelor în dezvoltarea IA şi a tehnologiilor conexe pot avea ca rezultat tratamente diferenţiate şi discrimi-narea directă şi indirectă a unor grupuri de persoane, mai ales deoarece datele utilizate la antrenarea algoritmilor folosiţi în activităţile poliţieneşti bazate pe analiza predictivă reflectă priorităţile curente de supraveghere şi, în consecinţă, ar putea avea ca rezultat reproducerea şi amplificarea lipsei de neutralitate deja existente; subliniază, ca urmare, că tehnologiile bazate pe IA, mai ales atunci când sunt utilizate în scopul aplicării legii şi în sistemul judiciar, impun cercetare şi aport interdisciplinar, inclusiv dinspre domeniile studiului ştiinţelor şi tehnologiilor, studiilor critice privind problema rasei, studiilor privind dizabilitatea şi a altor discipline adaptate la contextul social, inclusiv în legătură cu modul în care se construieşte diferenţa, cu activitatea de clasificare şi consecinţele acesteia; subli-niază, prin urmare, necesitatea de a investi sistematic în integrarea acestor dis-cipline în studiul şi cercetarea în domeniul IA la toate nivelurile; subliniază şi că este important ca echipele care proiectează, dezvoltă, testează, întreţin, implement-tează şi achiziţionea-ză aceste sisteme bazate pe IA să reflecte diversitatea socie-tăţii în ansamblul său ca modalitate netehnică de a reduce riscul de discriminare; |
||||||||||
23. subliniază, în plus, că responsabilitatea şi răspunderea civilă adecvate necesită o formare specializată semnificativă în ceea ce priveşte problemele de etică, pericolele potenţiale, limitările şi utilizarea corectă a tehnologiei bazate pe IA, în special pentru personalul poliţiei şi al sistemului judiciar; subliniază că factorii de decizie ar trebui să aibă o pregătire şi calificare profesională adecvată în legătură cu poten-ţialul de absenţă a neutralităţii, deoarece seturile de date se pot baza pe date discriminatorii şi întemeiate pe prejudecăţi; sprijină crearea de iniţiative de sen-sibilizare şi educare pentru a se garanta că persoanele care lucrează în domeniul aplicării legii sau în sistemul judiciar cunosc şi înţeleg limitările, capacităţile şi riscurile pe care le implică utilizarea sistemelor bazate pe IA, inclusiv riscul de absenţă a neutralităţii generat de automatizare; reaminteşte că includerea în setu-rile de date de utilizate pentru antrenarea IA a actelor de rasism comise de către forţele de poliţie în îndeplinirea sarcinilor lor va conduce inevitabil la prejudecăţi rasiste în constatările, evaluările cantitative şi recomandările generate de IA; îşi reiterează, prin urmare, apelul adresat statelor membre de a promova politici de combatere a discriminării şi de a elabora planuri naţionale de acţiune împotriva rasismului în domeniul ordinii publice şi al sistemului judiciar; |
||||||||||
24. observă că activităţile poliţieneşti bazate pe analiza predictivă se numără printre aplicaţiile bazate pe IA utilizate în domeniul aplicării legii, dar avertizează că, deşi ele pot analiza seturile de date existente pentru identificarea de regularităţi şi corelaţii, ele nu pot elucida cauzalitatea şi nu pot face predicţii fiabile ale comportamentului individual, şi în consecinţă nu pot constitui unicul temei pentru o intervenţie; subliniază că mai multe oraşe din Statele Unite au oprit utilizarea sistemelor de activităţi poliţieneşti predictive după ce acestea au fost supuse la audituri; reaminteşte că, în timpul misiunii Comisiei LIBE în Statele Unite din februarie 2020, deputaţii au fost informaţi de către departamentele de poliţie din New York şi Cambridge, Massachusetts că au eliminat treptat programele poliţieneşti bazate pe analiză predictivă din cauza ineficacităţii, impactului discri–minatoriu şi eşecului în practică, apelând în schimb la activităţi poliţieneşti bazate pe implicarea în comunitate; observă că acest lucru a condus la o scădere a ratelor infracţionalităţii; prin urmare, se opune utilizării IA de către autorităţile de aplicare a legii pentru a face previziuni ale comportamentului individual sau de grup pe baza datelor istorice şi a comportamentului din trecut, a apartenenţei la un grup, a localizării sau a oricăror alte astfel de caracteristici şi a încerca să identifice astfel persoanele susceptibile de a comite o infracţiune; |
||||||||||
25. observă că există diferitele tipuri de utilizare a recunoaşterii faciale, cum ar fi verificarea / autentificarea (corelarea feţei unei persoane cu o fotografie dintr-un document de identitate, de exemplu în cazul „frontierelor inteligente”), identify-carea (corelarea unei fotografii cu o bază de date de fotografii) şi detectarea (detectarea feţelor în timp real din surse precum înregistrările de televiziune cu circuit închis şi corelarea acestora cu bazele de date, de exemplu în supravegherea în timp real), fiecare dintre acestea având implicaţii diferite pentru protecţia drep-turilor fundamentale; este ferm convins că introducerea de sisteme de recunoaştere facială de către autorităţile de aplicare a legii ar trebui să se limiteze la scopuri clar justificate, cu respectarea deplină a principiilor proporţionalităţii şi necesităţii şi a legislaţiei aplicabile; reafirmă că utilizarea tehnologiei de recunoaştere facială trebuie să respecte cel puţin cerinţele de reducere a datelor, de precizie a datelor, de limitare a stocării, de securitate şi responsabilitate a datelor, precum şi cerinţa de a fi legală, corectă, transparentă şi de a urmări un scop concret, explicit şi legitim care este clar definit în legislaţia statelor membre sau a Uniunii; consideră că introducerea sistemelor de verificare şi autentificare poate continua, iar acestea pot fi utilizate cu succes numai dacă efectele lor negative pot fi atenuate şi dacă criteriile de mai sus sunt respectate; |
||||||||||
26. solicită, de asemenea, interzicerea permanentă a utilizării în spaţiile accesibile publicului a analizei şi/sau a recunoaşterii automate a altor caracteristici umane, cum ar fi mersul, amprentele digitale, ADN-ul, vocea şi alte semnale biometrice şi comportamentale; |
||||||||||
27. solicită însă adoptarea unui moratoriu asupra introducerii, în scopuri de aplicare a legii, de sisteme de recunoaştere facială cu funcţie de identificare, în afară de utilizarea strictă pentru identificarea victimelor infracţiunilor, până când se poate considera că standardele tehnice respectă pe deplin drepturile fundamentale, rezultatele sunt imparţiale şi nediscriminatorii, cadrul juridic prevede garanţii stricte împotriva utilizării abuzive şi un control şi o supraveghere democratice stricte şi există dovezi empirice ale necesităţii şi proporţionalităţii introducerii unor astfel de tehnologii; observă că, în cazul în care criteriile de mai sus nu sunt îndeplinite, sistemele nu ar trebui utilizate sau introduse; |
||||||||||
28. îşi exprimă îngrijorarea profundă în legătură cu utilizarea unor baze de date de recunoaştere facială private de către autorităţile de aplicare a legii şi serviciile de informaţii, cum ar fi Clearview AI, o bază de date cu peste trei miliarde de imagini care au fost colectate ilegal de pe reţelele sociale şi din alte locuri de pe internet, inclusiv de la cetăţeni ai UE; invită statele membre să oblige actorii din domeniul aplicării legii să divulge dacă utilizează tehnologia Clearview AI sau tehnologii echivalente de la alţi furnizori; reaminteşte că în opinia Comitetului european pentru protecţia datelor (CEPD) utilizarea unui serviciu precum Clearview AI de către autorităţile de aplicare a legii din Uniunea Europeană probabil nu este în concordanţă cu regimul UE de protecţie a datelor; invită la interzicerea utilizării bazelor de date de recunoaştere facială private în domeniul aplicării legii; |
||||||||||
29. ia act de studiul de fezabilitate al Comisiei privind posibilele modificări ale Deciziei Prüm(8), inclusiv în ceea ce priveşte recunoaşterea facială; ia act de cercetările anterioare conform cărora niciun potenţial identificator nou, de exemplu recu-noaşterea irisului sau recunoaşterea facială, nu ar fi la fel de sigur într-un context criminalistic precum ADN-ul sau amprentele; reaminteşte Comisiei că orice propunere legislativă trebuie să se bazeze pe dovezi şi să respecte principiul proporţionalităţii; îndeamnă Comisia să nu extindă cadrul Deciziei Prüm dacă nu există dovezi ştiinţifice solide ale fiabilităţii recunoaşterii faciale într-un context criminalistic în comparaţie cu ADN-ul sau amprentele digitale după ce a efectuat o evaluare completă a impactului şi după ce recomandările Autorităţii Europene pentru Protecţia Datelor (AEPD) şi ale CEPD au fost luate în considerare. |
||||||||||
30. subliniază că utilizarea datelor biometrice are legătură, în sens mai larg, cu prin-cipiul dreptului la demnitate umană, care stă la baza tuturor drepturilor funda-mentale garantate de Cartă; consideră că utilizarea şi colectarea oricăror date biometrice în scopuri de identificare la distanţă, de exemplu prin efectuarea recunoaşterii faciale în locuri publice, precum şi la porţile de control automat utilizate pentru verificările la trecerea frontierei în aeroporturi, pot prezenta anumite riscuri pentru drepturile fundamentale ale căror implicaţii pot varia considerabil, în funcţie de scopul, contextul şi aria de utilizare; subliniază, de asemenea, că validitatea ştiinţifică a tehnologiei de recunoaştere a afectelor, cum ar fi camerele de luat vederi care detectează mişcări oculare şi modificări ale dimensiunii pupilelor, este contestată în contextul aplicării legii; este de părere că utilizarea identificării biometrice în contextul aplicării legii şi al sistemului judiciar ar trebui să fie întotdeauna considerată ca având un risc ridicat şi, prin urmare, ar trebui să fie supusă unor condiţii suplimentare, în conformitate cu recomandările Grupului de experţi la nivel înalt privind IA al Comisiei; |
||||||||||
31. îşi exprimă îngrijorarea profundă faţă de proiectele de cercetare finanţate în cadrul programului Orizont 2020 care utilizează inteligenţa artificială la frontierele externe, cum ar fi proiectul iBorderCtrl, un „sistem inteligent de detectare a minciunilor” care întocmeşte profilul călătorilor pe baza unui interviu automatizat prin cameră web luat călătorului înainte de deplasare şi a unei analize bazate pe inteligenţă artificială a 38 de microgesturi, testat în Ungaria, Letonia şi Grecia; invită, ca urmare, Comisia să aplice prin mijloace legislative şi nelegislative şi, dacă este necesar, prin intermediul procedurilor de constatare a neîndeplinirii obligaţiilor, o interdicţie privind orice prelucrare în scopul aplicării legii a datelor biometrice, inclusiv a imaginilor faciale, care are ca rezultat supravegherea în masă în spaţiile publice; în plus, invită Comisia să oprească finanţarea cercetării sau a implementării datelor biometrice sau programele care sunt susceptibile a avea ca rezultat supravegherea în masă în spaţiile publice; subliniază, în acest context, că ar trebui să se acorde o atenţie deosebită utilizării dronelor în opera-ţiunile poliţieneşti şi să i se aplice un cadru strict; |
||||||||||
32. sprijină recomandările Grupului de experţi la nivel înalt al Comisiei privind IA care pledează pentru o interdicţie asupra atribuirii la scară largă a unui punctaj cetăţenilor pe bază de IA; consideră că orice formă de atribuire normativă pe scară largă a unui punctaj cetăţenilor de către autorităţile publice, în special în domeniul aplicării legii şi al sistemului judiciar, duce la pierderea autonomiei, periclitează principiul nediscriminării şi nu poate fi considerată conformă cu drepturile fundamentale, în special cu demnitatea umană, aşa cum sunt ele consacrate în dreptul UE; |
||||||||||
33. solicită să se dea dovadă de o mai mare transparenţă generală pentru a permite o înţelegere profundă a ceea ce înseamnă utilizarea aplicaţiilor bazate pe IA în Uniune; solicită statelor membre să ofere informaţii detaliate privind instrumen-tele utilizate de autorităţile lor de aplicare a legii şi judiciare, tipurile de instru-mente utilizate, scopurile în care sunt utilizate, tipurile de infracţiuni cărora le sunt aplicate şi denumirea societăţilor sau organizaţiilor care au creat aceste instrumente; invită, de asemenea, toate autorităţile publice de aplicare a legii şi judiciare să informeze publicul şi să asigure o transparenţă suficientă a utilizării IA şi a tehnologiilor conexe în exercitarea prerogativelor lor, inclusiv divulgarea ratelor de rezultate fals pozitive şi fals negative ale tehnologiei în cauză; solicită Comisiei să colecteze şi să actualizează informaţiile într-un singur loc; invită Comisia să publice şi să actualizeze şi informaţii privind utilizarea IA de către agenţiile Uniunii însărcinate cu aplicarea legii şi cu atribuţii judiciare; invită CEPD să evalueze legalitatea acestor tehnologii şi aplicaţii IA utilizate de autorităţile de aplicare a legii şi de sistemul judiciar; |
||||||||||
34. reaminteşte că aplicaţiile de IA, inclusiv cele utilizate în contextul aplicării legii şi al sistemului judiciar, se dezvoltă într-un ritm rapid pe plan mondial; îndeamnă toate părţile interesate europene, inclusiv statele membre şi Comisia, să asigure, prin cooperare internaţională, angajamentul partenerilor din afara UE în favoarea creşterii standardelor internaţionale şi găsirii unui cadru juridic şi etic comun şi complementar pentru utilizarea IA, în special pentru autorităţile de aplicare a legii şi sistemul judiciar, care să respecte pe deplin Carta, acquis-ul european în materie de protecţie a datelor şi drepturile omului în sens mai larg; |
||||||||||
35. solicită Agenţiei pentru Drepturi Fundamentale a UE ca, în colaborare cu CEPD şi AEPD, să elaboreze orientări cuprinzătoare, recomandări şi bune practici pentru a detalia criteriile şi condiţiile pentru dezvoltarea, utilizarea şi implementarea aplicaţiilor şi soluţiilor IA care să fie utilizate de autorităţile de aplicare a legii şi judiciare; se angajează să efectueze un studiu privind punerea în aplicare a Direc-tivei privind protecţia datelor în materie de asigurare a respectării legii(9) pentru a identifica modul în care a fost asigurată protecţia datelor cu caracter personal în activităţile de prelucrare de către autorităţile de aplicare a legii şi judiciare, în special atunci când se dezvoltă sau se utilizează noi tehnologii; invită, de asemenea, Comisia să analizeze dacă este necesară o acţiune legislativă specială pentru spe-cificarea mai detaliată a criteriilor şi condiţiilor pentru dezvoltarea, utilizarea şi implementarea aplicaţiilor şi soluţiilor IA de către autorităţile de aplicare a legii şi judiciare; |
||||||||||
36. încredinţează Preşedintelui sarcina de a transmite prezenta rezoluţie Consiliului şi Comisiei. |
||||||||||
|
||||||||||
(1) JO L 119, 4.5.2016, p. 1. |
||||||||||
(2) JO L 119, 4.5.2016, p. 89. |
||||||||||
(3) JO L 295, 21.11.2018, p. 39. |
||||||||||
(4) JO L 201, 31.7.2002, p. 37. |
||||||||||
(5) JO L 135, 24.5.2016, p. 53. |
||||||||||
(6) JO C 362, 8.9.2021, p. 63. |
||||||||||
(7) JO C 263, 25.7.2018, p. 82. |
||||||||||
(8) Decizia 2008/615/JAI a Consiliului din 23 iunie 2008 privind intensificarea cooperării transfrontaliere, în special în domeniul combaterii terorismului şi a criminalităţii transfrontaliere. JO L 210, 6.8.2008, p. 1. |
||||||||||
(9) Directiva (UE) 2016/680 a Parlamentului European şi a Consiliului din 27 aprilie 2016 privind protecţia persoanelor fizice referitor la prelucrarea datelor cu caracter personal de către autorităţile competente în scopul prevenirii, depistării, investigării sau urmăririi penale a infracţiunilor sau al executării pedepselor şi privind libera circulaţie a acestor date şi de abrogare a Deciziei-cadru 2008/977/JAI a Consiliului. JO L 119, 4.5.2016, p. 89. |
Ultima actualizare: 6 octombrie 2021
Audrey Azoulay is Director-General of the United Nations Educational, Scientific and Cultural Organization (UNESCO).
Coments