Sfetcu, Nicolae (2024), Provocări și limitări în utilizarea inteligenței artificiale, IT & C, 3:1, 3-10, DOI: 10.58679/IT76296, https://www.internetmobile.ro/provocari-si-limitari-in-utilizarea-inteligentei-artificiale/
Challenges and Limitations in the Use of Artificial Intelligence
Abstract
The use of artificial intelligence (AI) has expanded dramatically across sectors including healthcare, finance, transportation and more, including the military, providing unprecedented opportunities for efficiency, innovation and problem solving. However, this rapid adoption comes with a spectrum of challenges and limitations that require careful consideration. This essay looks at the key challenges and limitations inherent in the use of AI, including ethical concerns, bias and fairness, transparency and explainability, security risks and employment impacts.
Keywords: artificial intelligence, national security, data, vulnerabilities, ethics, bias, explainability, risks
Rezumat
Utilizarea inteligenței artificiale (AI) s-a extins dramatic în diferite sectoare, inclusiv în domeniul sănătății, finanțelor, transporturilor și multe altele, inclusiv în domeniul militar, oferind oportunități fără precedent de eficiență, inovare și rezolvare de probleme. Cu toate acestea, această adoptare rapidă vine cu un spectru de provocări și limitări care necesită o analiză atentă. Acest eseu analizează provocările și limitările cheie inerente utilizării AI, inclusiv preocupările etice, părtinirea și corectitudinea, transparența și explicabilitatea, riscurile de securitate și impactul asupra angajării.
Cuvinte cheie: inteligența artificială, securitatea națională, date, vulnerabilități, etica, prejudecăți, explicabilitate, riscuri
IT & C, Volumul 3, Numărul 1, Martie 2024, pp. 3-10
ISSN 2821 – 8469, ISSN – L 2821 – 8469, DOI: 10.58679/IT76296
URL: https://www.internetmobile.ro/provocari-si-limitari-in-utilizarea-inteligentei-artificiale/
© 2024 Nicolae Sfetcu. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.
Provocări și limitări în utilizarea inteligenței artificiale
Ing. fiz. Nicolae SFETCU[1], MPhil
nicolae@sfetcu.com
[1] Researcher – Romanian Academy – Romanian Committee of History and Philosophy of Science and Technology (CRIFST), Division of History of Science (DIS), ORCID: 0000-0002-0162-9973
Introducere
Utilizarea inteligenței artificiale (AI) s-a extins dramatic în diferite sectoare, inclusiv în domeniul sănătății, finanțelor, transporturilor și multe altele, oferind oportunități fără precedent de eficiență, inovare și rezolvare de probleme. Cu toate acestea, această adoptare rapidă vine cu un spectru de provocări și limitări care necesită o analiză atentă. Acest eseu analizează provocările și limitările cheie inerente utilizării AI, inclusiv preocupările etice, părtinirea și corectitudinea, transparența și explicabilitatea, riscurile de securitate și impactul asupra angajării.
Avantaje
În contextul mai general al securității naționale, AI prezintă o serie de oportunități unice[1]:
- Viteză și rezistență: IA oferă sistemelor capacitatea de a reacționa la viteză foarte mare, cu potențialul de a accelera în mod dramatic ritmul general de luptă[2], și pot permite colectarea de informații pe zone mari pe perioade lungi de timp, și capacitatea de a detecta în mod autonom anomaliile și de a clasifica comportamentul[3].
- Scalare: IA poate multiplica forța prin îmbunătățirea capacităților umane și prin utilizarea sistemelor militare mai puțin costisitoare cu capacități sporite[4].
- Superioritatea informațională: prin IA se crește exponențial cantitatea de date disponibile pentru analiză[5].
Preocupări etice
Una dintre cele mai presante provocări în utilizarea AI este navigarea în implicațiile etice ale implementării acesteia. Pe măsură ce sistemele AI preiau sarcini îndeplinite în mod tradițional de oameni, apar întrebări cu privire la confidențialitate, supraveghere, consimțământ și responsabilitatea morală a deciziilor luate de mașini. De exemplu, utilizarea tehnologiei de recunoaștere facială de către agențiile de aplicare a legii a stârnit dezbateri cu privire la drepturile la confidențialitate și la potențialul de supraveghere de stat. În plus, vehiculele autonome ridică dileme etice în ceea ce privește luarea deciziilor în situații care pun viața în pericol, evidențiind complexitatea programării eticii în sistemele AI.
Este important de reținut că utilizarea AI în serviciile de informații ridică preocupări semnificative de etică și de confidențialitate. Potențialul de abuz, invadarea confidențialității și prejudecățile din algoritmii AI trebuie luate în considerare și reglementate cu atenție pentru a se asigura că aceste tehnologii sunt utilizate în mod responsabil și în conformitate cu standardele legale și etice. În plus, transparența, supravegherea și responsabilitatea sunt cruciale pentru a se asigura că IA este utilizată în beneficiul securității naționale, fără a încălca libertățile civile.
În lumea interconectată de astăzi, securitatea informațiilor electronice a devenit o preocupare esențială pentru indivizi, companii și guverne deopotrivă. Proliferarea datelor digitale și dependența tot mai mare de sistemele electronice au condus la o creștere fără precedent a amenințărilor cibernetice. Acest eseu examinează provocările și soluțiile din domeniul securității informațiilor electronice, subliniind importanța protejării activelor digitale într-o eră a vulnerabilităților sporite. Colectarea unor cantități mari de date pentru analiză ridică îngrijorări cu privire la confidențialitate și securitatea datelor. Serviciile de informații trebuie să navigheze în dimensiunile etice și legale ale colectării și stocării datelor.
- Utilizarea IA pentru supraveghere și analiza datelor ridică preocupări legate de confidențialitate, în special în ceea ce privește colectarea în masă a datelor.
- Găsirea unui echilibru între securitate și confidențialitate rămâne o provocare.
Utilizarea etică a inteligenței artificiale în activitățile de informații este crucială. Agențiile guvernamentale trebuie să adere la normele internaționale și cadrele legale.
Prejudecăți și corectitudine
Sistemele AI sunt la fel de imparțial ca datele pe care sunt antrenate. Datele istorice pot încorpora prejudecăți și stereotipuri, conducând algoritmii AI să perpetueze sau chiar să exacerbeze părtinirea. Acest lucru este evident în cazurile în care tehnologiile de recunoaștere facială au arătat rate de acuratețe mai scăzute pentru persoanele de culoare sau când instrumentele de angajare AI au favorizat solicitanții în funcție de gen sau etnie. Abordarea acestor părtiniri necesită nu numai seturi de date diverse și reprezentative, ci și un angajament față de corectitudine în procesele de dezvoltare a AI.
Colectarea unor cantități mari de date pentru analiză ridică îngrijorări cu privire la confidențialitate și securitatea datelor. Serviciile de informații trebuie să navigheze în dimensiunile etice și legale ale colectării și stocării datelor.
- Asigurarea responsabilității în procesele de luare a deciziilor bazate pe inteligență artificială este esențială.
- Algoritmii pot perpetua din neatenție părtinirea, iar agențiile trebuie să abordeze aceste probleme.
- Sistemele IA pot moșteni părtiniri prezente în datele pe care sunt instruite, ceea ce poate duce la o analiză părtinitoare sau la un tratament nedrept al anumitor indivizi sau grupuri. Asigurarea echității și transparenței în sistemele IA este o provocare critică.
Algoritmii AI se bazează în mare măsură pe calitatea datelor de intrare, iar agențiile de informații se confruntă cu provocări în asigurarea acurateței și fiabilității datelor.
Transparență și explicabilitate
Este important ca oamenii și AI/ML să stabilească un teren comun de comunicare și interacțiune. Aceasta implică ”un acord cu privire la caracteristicile (în seturi de date sau într-o situație) între „explicator” și „interlocutor”. Orice sistem de inteligență artificială care ar putea avea un impact substanțial asupra vieții unui individ ar trebui să poată genera o explicație completă și satisfăcătoare pentru deciziile pe care le va lua[6].
Algoritmii AI care au cea mai mare performanță nu sunt în prezent în măsură să-și explice procesele[7]. Natura de „cutie neagră” a multor sisteme AI ridică provocări semnificative pentru transparență și responsabilitate. Modelele de învățare profundă, în special, pot face dificilă înțelegerea modului în care sunt luate deciziile, complicând eforturile de auditare sau contestare a acestor decizii. Această lipsă de explicabilitate poate submina încrederea în aplicațiile AI, în special în domenii critice, cum ar fi asistența medicală și justiția penală, unde înțelegerea rațiunii din spatele deciziilor este crucială.
Riscuri de securitate
Algoritmii IA produc adesea rezultate imprevizibile și neconvenționale[8] care, într-un context militar, pot oferi un avantaj în luptă, dar pot și eșua în moduri neașteptate, unii analiști caracterizând comportamentul lor drept „fragil și inflexibil”. Pe măsură ce sistemele AI devin mai integrante în infrastructura critică și dispozitivele personale, ele devin, de asemenea, ținte atractive pentru atacurile cibernetice. Complexitatea modelelor AI poate introduce vulnerabilități pe care hackerii le-ar putea exploata pentru a manipula rezultatele, a fura date sau a provoca întreruperi. De exemplu, atacurile adverse pot păcăli sistemele AI să interpreteze greșit intrările, ducând la decizii incorecte. Asigurarea securității sistemelor AI împotriva unor astfel de amenințări este o provocare semnificativă care necesită efort și inovare continuu.
Pot apare, de asemenea, probleme de interacțiune om-mașină, referitor la alinierea obiectivelor, alinierea sarcinilor, interfață om-mașină.[9] [10]
Probleme specifice în domeniul militar
IA prezintă provocări specifice pentru adoptarea ei militară. Procesul de achiziție militară trebuie să fie adaptat pentru achiziționarea de tehnologii emergente, multe aplicații comerciale IA trebuie modificate înainte de a fi funcționale pentru armată, iar unele companii de IA care ar fi utile pentru cooperare nu pot fi acreditate sau nu sunt interesate să colaboreze cu armata din cauza preocupărilor etice și/sau a problemelor care țin de drepturile de autor. De asemenea, implementarea unor tehnologii IA prezintă riscul unor forme specifice de manipulare[11].
- Tehnologia: adaptarea tehnologiei comerciale AI în scopuri militare.
- Procesele: standardele civile și militare de siguranță și performanță fie nu sunt aliniate, fie nu sunt ușor de transferat.
- Reticența: companiile comerciale au o viteză de adaptare la evoluția tehnologiilor mult mai mare decât instituțiile militare, dar sunt adesea reticente în a colabora cu instituțiile, din cauza complexității procesului de achiziție a apărării, a preocupărilor legate de proprietatea intelectuală și drepturile asupra datelor, și preocupărilor etice cu privire la utilizarea de către guvern a AI în sistemele de supraveghere sau arme.
- Personalul: recrutarea și reținerea personalului cu experiență în IA este dificilă, din cauza finanțării cercetării și a salariilor care sunt semnificativ mai mici față de cele ale companiilor comerciale.
- Cultura: Există o aparentă diviziune culturală între instituțiile militare și companiile comercială din IA, datorită proceselor complexe din instituții, neîncredere reciprocă. și diferențele dintre stimulente[12].
Integrarea IA în procesul de analiză intelligence necesită dezvoltarea echilibrului corect între inteligența umană și cea a mașinii. Analiștii umani de intelligence trebuie să înțeleagă capacitățile și limitările IA pentru a-și valorifica în mod eficient cunoștințele.
Pe măsură ce tehnologia IA avansează, există un risc tot mai mare de atacuri adverse IA care vizează perturbarea proceselor de analiză intelligence. Protejarea sistemelor IA de manipulare și asigurarea fiabilității acestora este o prioritate de top.
- Sistemele AI sunt vulnerabile la atacuri adverse concepute pentru a le manipula procesele de luare a deciziilor.
- Agențiile de informații trebuie să îmbunătățească continuu securitatea AI.
Impactul asupra ocupării forței de muncă
Multe sisteme autonome încorporează AI, fiind capabile să înlocuiască oamenii[13]. Automatizarea sarcinilor efectuate anterior de oameni ridică îngrijorări cu privire la înlocuirea locului de muncă și viitorul muncii. Deși IA are potențialul de a crea noi oportunități de angajare, există și riscul ca aceasta să ducă la șomaj pe scară largă sau să exacerbeze inegalitatea veniturilor. Provocarea constă în gestionarea tranziției, asigurându-se că lucrătorii înlocuiți de IA se pot recalifica pentru noi roluri și luând în considerare implicațiile societale mai largi ale acestor schimbări.
Recomandări
În domeniul analizei intelligence augmentate există trei limitări: utilizările IA de către agențiile de informații sunt în mare parte secrete, noutatea domeniului, și literatura care acoperă aproape exclusiv activitățile comunității de informații din SUA[14]. Provocările, în această abordare, țin de intruziunile posibile[15], explicabilitate și responsabilitate[16], prejudecăți[17], autoritarism și securitatea politică[18], colaborare și clasificare[19][20].
Joseph W. Gartin[21] prezintă câteva recomandări în implementarea IA:
- Distincțiile de valoare abstractă între inteligența biologică (mintea) și cea artificială (date și algoritmi) trebuie înțelese atunci când evaluăm tehnologia pentru utilizare în cadrul comunităților de intelligence.
- Rolurile analiștilor vor trebui să se schimbe, analiștii așa cum sunt cunoscuți în general în intelligence astăzi, vor diferi de analiștii care vor lucra cu IA. Funcțiile descrise în „ciclul de intelligence” clasic secvenția, au loc simultan și în timp real prin aplicarea metodelor IA.
- Utilizarea surselor deschise considerat ca spațiu competitiv comun, cu o natura dinamică care nu poate fi replicat într-un mediu clasificat.
- Redefinirea dreptului de proprietate asupra datelor, care va face dificil schimbul de date între organizațiile de informații și cele de aplicare a legii.
- Determinarea valorii sensibile a colectării informațiilor în domeniul surselor deschise, un proces care în sistemul clasic este afectat de deficiențe endemice proceselor cognitive.
- Experimentarea pentru a testa rezultatele potențiale ale acțiunilor înainte ca acele acțiuni să aibă loc.
- Eficiențe economice inerente, permițând o creștere exponențială a nivelului de asociații care poate fi dezvoltat, oferind mai multe cursuri de intervenție.
Concluzie
Deși AI are potențialul de a îmbunătăți considerabil analiza informațiilor, aceasta vine și cu provocări legate de confidențialitatea datelor, etica și potențialul de fals pozitive sau părtiniri în analiză. Prin urmare, utilizarea AI în analiza informațiilor trebuie gestionată cu atenție și evaluată în mod regulat pentru a asigura acuratețea și utilizarea etică a tehnologiei.
Provocările și limitările asociate cu inteligența artificială subliniază importanța unei abordări atentă a dezvoltării și implementării acesteia. Abordarea preocupărilor etice, a părtinirii și echității, a transparenței, a riscurilor de securitate și a impactului asupra ocupării forței de muncă necesită eforturi de colaborare între factorii de decizie, tehnologi și părțile interesate din diverse sectoare. Confruntându-se direct cu aceste provocări, societatea poate valorifica beneficiile inteligenței artificiale, atenuând în același timp potențialele dezavantaje, asigurându-se că această tehnologie transformatoare servește binelui mai mare.
Bibliografie
- Allen, Gregory C., și Taniel Chan. 2017. Artificial Intelligence and National Security. Belfer Center for Science and International Affairs.
- Baber, Chris, Ian Apperly, și Emily McCormick. 2021. „Understanding The Problem Of Explanation When Using AI In Intelligence Analysis”. 2021. https://crestresearch.ac.uk/resources/understanding-the-problem-of-explanation-when-using-ai-in-intelligence-analysis/.
- Babuta, Alexander, Marion Oswald, și Ardi Janjeva. 2023. „Artificial Intelligence and UK National Security: Policy Considerations”. 2 noiembrie 2023. https://rusi.orghttps://rusi.org.
- Blanchard, Alexander, și Mariarosaria Taddeo. 2023. „The Ethics of Artificial Intelligence for Intelligence Analysis: A Review of the Key Challenges with Recommendations”. Digital Society 2 (1): 12. https://doi.org/10.1007/s44206-023-00036-4.
- Brundage, Miles, Shahar Avin, Jack Clark, Helen Toner, Peter Eckersley, Ben Garfinkel, Allan Dafoe, et al. 2018. „The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation”, februarie.
- Cath, Corinne, Sandra Wachter, Brent Mittelstadt, Mariarosaria Taddeo, și Luciano Floridi. 2018. „Artificial Intelligence and the ‘Good Society’: The US, EU, and UK Approach”. Science and Engineering Ethics 24 (2): 505–28. https://doi.org/10.1007/s11948-017-9901-7.
- Coeckelbergh, Mark. 2020. AI Ethics. The MIT Press. https://doi.org/10.7551/mitpress/12549.001.0001.
- Congressional Research Service. 2020. „Artificial Intelligence and National Security (R45178)”. 2020. https://crsreports.congress.gov/product/details?prodcode=R45178.
- Endsley, Mica. 2015. Autonomous Horizons: System Autonomy in the Air Force – A Path to the Future. Volume I: Human-AutonomyTeaming. https://doi.org/10.13140/RG.2.1.1164.2003.
- Galison, Peter. 2004. „Removing Knowledge”. Critical Inquiry 31 (1): 229–43. https://doi.org/10.1086/427309.
- Gartin, Joseph W. 2019. „Future of Analysis – CIA”. 2019. https://www.cia.gov/resources/csi/studies-in-intelligence/volume-63-no-2/future-of-analysis/.
- Gunning, David. 2017. „Explainable AI Program Description”. https://www.darpa.mil/attachments/XAIIndustryDay_Final.pptx.
- Harper, John. 2018. „Artificial Intelligence to Sort Through ISR Data Glut”. 2018. https://www.nationaldefensemagazine.org/articles/2018/1/16/artificial-intelligence-to–sort-through-isr-data-glut.
- Metz, Cade. 2016. „In Two Moves, AlphaGo and Lee Sedol Redefined the Future | WIRED”. 2016. https://www.wired.com/2016/03/two-moves-alphago-lee-sedol-redefined-future/.
- Office of Technical Intelligence. 2015. „Technical Assessment: Autonomy”. https://apps.dtic.mil/sti/citations/AD1010190.
- Ryan, Mick. 2017. „Building a Future: Integrated Human-Machine Military Organization | RealClearDefense”. 2017. https://www.realcleardefense.com/2017/12/11/building_a_future_integrated_human-machine_military_organization_298877.html.
- Scharre, Paul. 2016. Autonomous Weapons and Operational Risk. Center for a New American Security.
Note
[1] (Congressional Research Service 2020)
[2] (Allen și Chan 2017)
[3] (Office of Technical Intelligence 2015)
[4] (Ryan 2017)
[5] (Harper 2018)
[6] (Baber, Apperly, și McCormick 2021)
[7] (Gunning 2017)
[8] (Metz 2016)
[9] (Endsley 2015)
[10] (Congressional Research Service 2020)
[11] (Congressional Research Service 2020)
[12] (Congressional Research Service 2020)
[13] (Scharre 2016)
[14] (Blanchard și Taddeo 2023)
[15] (Babuta, Oswald, și Janjeva 2023)
[16] (Coeckelbergh 2020)
[17] (Cath et al. 2018)
[18] (Brundage et al. 2018)
[19] (Galison 2004)
[20] (Blanchard și Taddeo 2023)
[21] (Gartin 2019)
Articol cu Acces Deschis (Open Access) distribuit în conformitate cu termenii licenței de atribuire Creative Commons CC BY SA 4.0 (https://creativecommons.org/licenses/by-sa/4.0/).
Lasă un răspuns