Securitatea în rețelele de telecomunicații 5G cu 5G Core

IT & C - Descarcă PDFSfetcu, Nicolae (2024), Securitatea în rețelele de telecomunicații 5G cu 5G Core, IT & C, 3:3, 18-26, DOI: 10.58679/IT10710, https://www.internetmobile.ro/securitatea-in-retelele-de-telecomunicatii-5g-cu-5g-core/

 

Security in 5G Telecommunications Networks with 5G Core

Abstract

5G telecommunications networks offer advanced security features that are significantly improved compared to previous generations. Security in 5G telecommunications networks is of paramount importance due to the significant advances and complexities introduced by the 5G Core network functions. The 5G Core network function specifications were developed to remove known vulnerabilities in the existing network.

Keywords: security, telecommunications, communications, 5G, 5G networks, 5G Core

Rezumat

Rețelele de telecomunicații 5G oferă caracteristici avansate de securitate care sunt îmbunătățite semnificativ în comparație cu generațiile anterioare. Securitatea în rețelele de telecomunicații 5G este de o importanță capitală datorită progreselor și complexităților semnificative introduse de funcțiile rețelei 5G Core. Specificațiile funcțiilor de rețea 5G Core au fost dezvoltate pentru a elimina vulnerabilitățile cunoscute din rețeaua existentă.

Cuvinte cheie: securitate, telecomunicații, comunicații, 5G, rețele 5G, 5G Core

 

IT & C, Volumul 3, Numărul 3, Septembrie 2024, pp. 18-26
ISSN 2821 – 8469, ISSN – L 2821 – 8469, DOI: 10.58679/IT10710
URL: https://www.internetmobile.ro/securitatea-in-retelele-de-telecomunicatii-5g-cu-5g-core/
© 2024 Nicolae Sfetcu. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.

 

Securitatea în rețelele de telecomunicații 5G cu 5G Core

Ing. fiz. Nicolae SFETCU[1], MPhil

nicolae@sfetcu.com

[1] Cercetător – Academia Română – Comitetul Român de Istoria și Filosofia Științei și Tehnicii (CRIFST), Divizia de Istoria Științei (DIS), ORCID: 0000-0002-0162-9973

 

Introducere

Rețelele de telecomunicații 5G oferă caracteristici avansate de securitate care sunt îmbunătățite semnificativ în comparație cu generațiile anterioare. Securitatea în 5G este îmbunătățită în primul rând prin arhitectura de bază a rețelei, care include câteva funcții cheie special concepute pentru a îmbunătăți securitatea.

Securitatea în rețelele de telecomunicații 5G este de o importanță capitală datorită progreselor și complexităților semnificative introduse de funcțiile rețelei 5G Core (5GC). Pe măsură ce trecem de la 4G la 5G, arhitectura rețelelor de telecomunicații evoluează pentru a suporta viteze mai mari, volume de date mai mari, latență ultra-scăzută și o creștere masivă a dispozitivelor conectate. Deși aceste progrese aduc numeroase beneficii, ele ridică, de asemenea, noi provocări și riscuri de securitate care trebuie gestionate cu atenție și atenuate.

Specificațiile funcțiilor de rețea 5G Core au fost dezvoltate pentru a elimina vulnerabilitățile cunoscute din rețeaua existentă. Efortul este continuu; de exemplu, cea mai recentă versiune a specificației arhitecturii 5G (3GPP 5G 2020) îmbunătățește și mai mult contracararea unei vulnerabilități cunoscute User Plane Integrity Protection, prin adăugarea de noi cerințe pentru UE pentru a suporta User Plane Integrity Protection la maximum.

Avantajele securității 5G:

  • Criptare îmbunătățită: Rețelele 5G folosesc protocoale de criptare mai puternice pentru protecția datelor.
  • Confidențialitate îmbunătățită: Caracteristici precum ascunderea identității abonaților ajută la protejarea identității utilizatorilor.
  • Izolarea și integritatea: Secționarea rețelei permite crearea de rețele izolate, sporind securitatea aplicațiilor critice.

Funcțiile rețelei 5G Core

Funcțiile de bază 5G se bazează pe o infrastructură subiacentă de hardware, software și procese care vin cu amenințările și vulnerabilitățile lor de securitate. Rețeaua 5G Core (5GC), fiind centrală pentru arhitectura 5G, integrează diverse funcții care sporesc securitatea.

Iată o prezentare generală a modului în care securitatea este încorporată în 5G Core (5GC) prin diferitele sale funcții de rețea:

Funcția de server de autentificare (AUSF): AUSF este crucială pentru autentificarea utilizatorilor și asigură că numai utilizatorii autorizați pot accesa rețeaua. (Leu et al. 2021) Utilizează Unified Data Management (UDM) pentru a verifica în siguranță acreditările utilizatorului.

Management unificat al datelor (UDM): UDM stochează și gestionează datele abonaților, inclusiv informațiile de autentificare și autorizare. Acesta asigură integritatea și confidențialitatea datelor prin gestionarea informațiilor sensibile la nivel central și în siguranță (Sid-Otmane et al. 2020).

Security Edge Protection Proxy (SEPP): SEPP este utilizat pentru interconectarea securității între diferite domenii de rețea. Se asigură că toate datele schimbate între diferite rețele 5G sunt criptate și securizate, prevenind interceptarea sau manipularea în timpul transmisiei (Kaur și Tony Joseph 2024).

Funcția de selecție a segmentelor de rețea (NSSF): Segmentarea rețelei este o caracteristică fundamentală a 5G, permițând operatorilor să creeze mai multe rețele virtuale cu caracteristici diferite. NSSF selectează porțiunea de rețea adecvată pe baza nevoilor utilizatorului și a cerințelor de securitate, asigurându-se că datele și serviciile sensibile sunt izolate și protejate (Diaz Rivera et al. 2019).

Funcția de expunere la rețea (NEF): NEF gestionează expunerea capabilităților și serviciilor către alte rețele și aplicații terțe. Se asigură că această expunere este controlată și securizată, prevenind accesul neautorizat și asigurând conformitatea cu politicile de securitate (Abazi 2019).

Funcția de depozit de rețea (NRF): Această funcție permite descoperirea serviciului și înregistrarea dinamică a funcțiilor în rețeaua 5G. Ajută la menținerea integrității stării de funcționare a rețelei, prevenind modificările neautorizate și asigurând că sunt executate numai funcțiile legitime (Behrad et al. 2021).

Funcția de control al politicii (PCF): PCF gestionează și pune în aplicare politicile în cadrul rețelei, inclusiv politicile de securitate. Acesta asigură că resursele de rețea sunt utilizate în conformitate cu liniile directoare de securitate și cerințele de conformitate (Peinado Gomez et al. 2021).

Caracteristici și mecanisme de securitate

Iată o prezentare generală a caracteristicilor și mecanismelor de securitate din funcțiile rețelei 5G Core:

Segmentarea rețelei

Una dintre caracteristicile inovatoare ale 5G este segmentarea rețelei, care permite rețelei să fie segmentată logic în mai multe rețele virtuale. Fiecare porțiune poate fi adaptată pentru aplicații sau servicii specifice, cum ar fi IoT, autovehicule sau bandă largă mobilă îmbunătățită. Măsurile de securitate pot fi aplicate individual fiecărei porțiuni, asigurându-se că vulnerabilitățile sunt conținute și izolate, minimizând astfel impactul potențialelor atacuri. (Zhang 2019)

Segmentarea rețelei permite mai multor rețele virtuale să ruleze pe o infrastructură fizică partajată. Fiecare segment poate fi adaptat pentru a îndeplini cerințele specifice, inclusiv securitatea. Măsurile de securitate în segmentarea rețelei includ:

  • Izolarea: Asigurarea că fiecare secțiune este izolată de celelalte pentru a preveni mișcarea laterală a amenințărilor.
  • Politici de securitate personalizate: Implementarea politicilor și controalelor de securitate specifice secțiunii bazate pe cerințele serviciului.

Autentificare și autorizare

Rețelele 5G Core implementează mecanisme de autentificare robuste pentru a verifica identitatea utilizatorilor și a dispozitivelor. (Luo et al. 2021) Protocoalele de autentificare îmbunătățite, cum ar fi 5G AKA (Authentication and Key Agreement) asigură o comunicare sigură între dispozitive și rețea. Mecanismele de autorizare definesc ce resurse și servicii poate accesa fiecare entitate autentificată, prevenind astfel încercările de acces neautorizat. Caracteristicile cheie includ:

  • Subscription Concealed Identifier (SUCI): Criptează identitatea utilizatorului pentru a preveni urmărirea și furtul de identitate. (Liu et al. 2021)
  • Cadrul de autentificare unificată: Acceptă mai multe metode de autentificare (de exemplu, 5G-AKA, EAP-AKA’) pentru a oferi flexibilitate și securitate sporită.

Virtualizarea funcției de rețea (NFV) și rețea definită de software (SDN)

NFV (Abdelwahab et al. 2016) și SDN (Routray și Sharmila 2017) permit implementarea și gestionarea dinamică a funcțiilor și serviciilor de rețea. Aceste tehnologii permit ca măsurile de securitate să fie implementate mai flexibil și mai eficient în rețea. Funcțiile de securitate pot fi virtualizate și scalate după cum este necesar, răspunzând la amenințările în evoluție și la cerințele operaționale în timp real. 5G folosește NFV pentru a implementa funcții de rețea ca instanțe virtuale. Securitatea NFV se concentrează pe:

  • Hypervisor Security: Protejarea stratului de virtualizare pentru a preveni atacurile asupra hypervisorului.
  • Orchestrare sigură: Asigurarea că orchestrarea și gestionarea funcțiilor rețelei virtualizate (VNF) sunt securizate.

Arhitectură bazată pe servicii

Funcțiile 5G Core sunt menite să fie compuse în mare parte din aplicații care rulează pe hardware de uz general care comunică prin interfețe de programare a aplicațiilor (API) (Sfetcu 2022) (ENISA 2019). Integritatea software-ului, în special din locațiile open-source și din lanțul general de aprovizionare a software-ului, este o zonă de vulnerabilitate. Deoarece serviciile pot fi create, distruse și comunicate între ele dinamic, sistemele trebuie autentificate corespunzător și comunicațiile protejate pentru a preveni executarea neautorizată a funcțiilor sau accesul la date (5G Americas 2020). Componente afectate: interfețe bazate pe servicii

Securitatea arhitecturii bazate pe servicii (SBA): 5GC adoptă o arhitectură bazată pe servicii în care funcțiile de rețea (NF) comunică prin interfețe standard de servicii. (Rudolph et al. 2019) Securitatea în SBA include:

  • Securitate API: Implementarea gateway-uri API pentru a controla accesul și a asigura comunicarea securizată între NF-uri utilizând tehnici precum OAuth, TLS și JSON Web Tokens (JWT).
  • Înregistrarea și descoperirea serviciului: Securizarea registrului de servicii pentru a preveni înregistrarea și descoperirea neautorizate a serviciilor.

Orchestrarea și automatizarea securității

Pe măsură ce rețelele cresc în complexitate, orchestrarea și automatizarea securității devin esențiale. Politicile de securitate, mecanismele de detectare a amenințărilor și procedurile de răspuns la incident sunt automatizate pentru a detecta, analiza și atenua rapid amenințările de securitate. Învățarea automată și algoritmii AI pot fi, de asemenea, valorificați pentru a îmbunătăți capacitățile de detectare a amenințărilor și pentru a reduce timpii de răspuns.

Respectarea cerințelor generale de asigurare a securității: (Sfetcu 2022) (ENISA 2019) Securitatea asigurată de funcțiile 5G Core și securitatea 5G Core în sine se bazează pe actualizarea permanentă a cerințelor de asigurare a securității pentru componentele de rețea critice precum UDM, AUSF, SEPP, NRF, NEF, SMF, AMF și UPF. Cu toate acestea, va exista inevitabil un decalaj de actualizare a securității între noile cerințe de securitate și implementarea versiunilor actualizate ale funcțiilor de rețea în sistemele operaționale. Există doi factori majori în reducerea acestui decalaj: a) sensibilitatea furnizorilor la emiterea și validarea de noi versiuni ale funcțiilor de rețea care răspund cerințelor actualizate, și b) actualitatea și eficacitatea proceselor MNO pentru actualizarea sistemelor operaționale la recentele versiuni lansate și evaluate SCAS. Componente afectate: UDM, AUSF, SEPP, NRF, NEF, SMF, AMF, UPF.

Criptare end-to-end: Folosirea unor algoritmi de criptare robusti (de exemplu, AES pe 256 de biți) pentru protejarea datelor în tranzit și în repaus. (Ahmed et al. 2021) Pentru a proteja datele pe măsură ce traversează rețeaua, rețelele 5G Core folosesc mecanisme puternice de criptare. Datele transmise între dispozitive și rețeaua centrală, precum și între diferite funcții de rețea, sunt criptate folosind protocoale precum IPsec (Internet Protocol Security) și TLS (Transport Layer Security). Această criptare previne interceptarea și asigură confidențialitatea și integritatea datelor transmise.

API-uri și interfețe securizate: Rețeaua 5G Core include numeroase API-uri și interfețe care facilitează comunicarea între funcțiile de rețea, aplicații și sistemele externe. Gestionarea securizată API și validarea strictă a datelor schimbate prin aceste interfețe sunt cruciale pentru prevenirea accesului neautorizat și protejarea împotriva vulnerabilităților legate de API.

Integritatea și confidențialitatea datelor: 5G asigură integritatea și confidențialitatea datelor transmise prin rețea prin asigurarea că datele nu au fost modificate în timpul transmisiei folosind mecanisme de protecție a integrității.

Protecție împotriva refuzului de serviciu distribuit (DDoS): (Badhwar 2021) Rețelele 5G încorporează măsuri pentru detectarea și atenuarea atacurilor DDoS, inclusiv:

  • Detectarea anomaliilor: Utilizarea AI și a învățării automate pentru a identifica modele de trafic neobișnuite care indică un atac DDoS.
  • Filtrarea traficului: Implementarea mecanismelor de filtrare pentru a bloca traficul rău intenționat la marginea rețelei.

Securitatea punctului final: Securizarea punctelor finale (adică, dispozitivele utilizatorului) conectate la rețeaua 5G este esențială. Măsurile includ:

  • Autentificare dispozitiv: Verificarea identității dispozitivelor înainte de a li se permite să se conecteze la rețea.
  • Pornire securizată: Asigurarea că dispozitivele pornesc folosind numai software autorizat.

Stivă de protocol pe bază de IP

5GC trece la o stivă de protocol bazată pe IP, permițând interoperabilitatea cu un număr mai mare de servicii și tehnologii în viitor. Următoarele protocoale, scheme și procese vor fi adoptate în 5GC (Sfetcu 2022) (ENISA 2019):

  • HTTP/2 și JSON ca strat de aplicație și protocoale de serializare, înlocuind protocolul Diameter peste punctul de referință S6a
  • TLS ca strat suplimentar de protecție care asigură comunicații criptate între toate funcțiile de rețea (NF) din interiorul unei rețele mobile de telefonie publică (PLMN)
  • TCP ca protocol de strat de transport
  • Cadrul RESTful cu OpenAPI 3.0.3 ca limbaj de definiție a interfeței (IDL).

Deoarece aceste protocoale sunt utilizate în industria IT mai largă, va duce probabil la o vulnerabilitate mai scurtă în cronologia exploatării și la un impact mai mare al vulnerabilităților în cadrul acestor protocoale. Schemele de raportare a vulnerabilității vor trebui să gestioneze domeniul de aplicare extins al acestor protocoale. Odată localizat, timpul de corecție pentru vulnerabilități ar trebui să fie scurt. Componente afectate: Toate funcțiile

Monitorizare și auditare continuă

Monitorizarea continuă a traficului de rețea, a comportamentului dispozitivului și a jurnalelor de sistem este esențială pentru detectarea rapidă a anomaliilor și a potențialelor încălcări de securitate. Auditurile regulate de securitate și testele de penetrare ajută la identificarea vulnerabilităților și la asigurarea conformității cu standardele și reglementările de securitate. Monitorizarea și analiza continuă sunt esențiale pentru menținerea securității rețelei:

  • Centrul de operațiuni de securitate (SOC): Stabilirea unui SOC pentru a monitoriza, detecta și răspunde la incidente de securitate.
  • Analitica securității: Utilizarea analizei avansate pentru a identifica potențialele amenințări și vulnerabilități în timp real.

Conformitatea cu reglementările și standardele

Rețelele 5G trebuie să respecte standardele și reglementările internaționale și regionale de securitate, cum ar fi:

  • Specificații de securitate 3GPP: Aderarea la specificațiile de securitate definite de Proiectul de parteneriat de generație a 3-a (3GPP).
  • GDPR: Asigurarea conformității cu reglementările privind protecția datelor, cum ar fi Regulamentul general privind protecția datelor (GDPR) în Uniunea Europeană.

Concluzie

Arhitectura de securitate a 5G este concepută pentru a fi robustă, scalabilă și flexibilă, permițând operatorilor de telecomunicații să ofere noi servicii, asigurând în același timp securitatea completă și protecția vieții private.

Funcțiile rețelei 5G Core sunt proiectate cu un accent puternic pe securitate pentru a aborda diversele provocări reprezentate de rețelele de telecomunicații de ultimă generație. Implementând autentificarea robustă, criptarea, segmentarea rețelei și valorificarea tehnologiilor precum NFV și SDN, rețelele 5G pot oferi conectivitate sigură și fiabilă pentru o gamă largă de aplicații și servicii. Cu toate acestea, natura în evoluție a amenințărilor cibernetice necesită inovare și colaborare continuă între părțile interesate din industrie pentru a menține integritatea și rezistența rețelelor de telecomunicații 5G în fața provocărilor emergente de securitate.

Folosind tehnologii avansate și aderând la standarde stricte de securitate, rețelele 5G pot oferi securitate și fiabilitate îmbunătățite, esențiale pentru susținerea aplicațiilor diverse și critice ale viitorului. Această abordare integrată nu numai că acceptă o gamă largă de cazuri de utilizare, ci și construiește încrederea între utilizatori și furnizorii de servicii prin menținerea unor standarde înalte de securitate.

Bibliografie

  • 3GPP 5G. 2020. „System architecture for the 5G System (5GS) (3GPP TS 23.501 version 16.6.0 Release 16) – ETSI TS 123 501 V16.6.0 (2020-10)”. https://www.etsi.org/deliver/etsi_ts/123500_123599/123501/16.06.00_60/ts_123501v160600p.pdf.
  • 5G Americas. 2020. „Security considerations for the 5G era”. https://www.5gamericas.org/wp-content/uploads/2020/07/Security-Considerations-for-the-5G-Era-2020-WP-Lossless.pdf.
  • Abazi, Eusem. 2019. „5G Core Network Architecture: Network Exposure Function”. Laurea, Politecnico di Torino. https://webthesis.biblio.polito.it/12557/.
  • Abdelwahab, Sherif, Bechir Hamdaoui, Mohsen Guizani, și Taieb Znati. 2016. „Network function virtualization in 5G”. IEEE Communications Magazine 54 (4): 84–91. https://doi.org/10.1109/MCOM.2016.7452271.
  • Ahmed, Kazi J., Marco Hernandez, Myung Lee, și Kazuya Tsukamoto. 2021. „End-to-End Security for Connected Vehicles”. În Advances in Intelligent Networking and Collaborative Systems, ediție de Leonard Barolli, Kin Fun Li, și Hiroyoshi Miwa, 216–25. Cham: Springer International Publishing. https://doi.org/10.1007/978-3-030-57796-4_21.
  • Badhwar, Raj. 2021. „Distributed Denial of Service (DDoS) Protection”. În The CISO’s Next Frontier: AI, Post-Quantum Cryptography and Advanced Security Paradigms, ediție de Raj Badhwar, 231–36. Cham: Springer International Publishing. https://doi.org/10.1007/978-3-030-75354-2_28.
  • Behrad, Shanay, David Espes, Philippe Bertin, și Cao-Thanh Phan. 2021. „Impacts of Service Decomposition Models on Security Attributes: A Case Study with 5G Network Repository Function”. În 2021 IEEE 7th International Conference on Network Softwarization (NetSoft), 470–76. https://doi.org/10.1109/NetSoft51509.2021.9492620.
  • Diaz Rivera, Javier Jose, Talha Ahmed Khan, Asif Mehmood, și Wang-Cheol Song. 2019. „Network Slice Selection Function for Data Plane Slicing in a Mobile Network”. În 2019 20th Asia-Pacific Network Operations and Management Symposium (APNOMS), 1–4. https://doi.org/10.23919/APNOMS.2019.8893084.
  • ENISA. 2019. „ENISA Threat Landscape for 5G Networks Report”. Report/Study. ENISA. 2019. https://www.enisa.europa.eu/publications/enisa-threat-landscape-report-for-5g-networks.
  • Kaur, Bhavjot, și K Tony Joseph. 2024. „Security Challenges and Solutions in 5G Networks”. În 2024 IEEE International Conference on Interdisciplinary Approaches in Technology and Management for Social Innovation (IATMSI), 2:1–5. https://doi.org/10.1109/IATMSI60426.2024.10502490.
  • Leu, Fang-Yie, Kun-Lin Tsai, Heru Susanto, Cheng-Yan Gu, și Ilsun You. 2021. „A Fault Tolerant Mechanism for UE Authentication in 5G Networks”. Mobile Networks and Applications 26 (4): 1650–67. https://doi.org/10.1007/s11036-019-01502-5.
  • Liu, Fuwen, Li Su, Bo Yang, Haitao Du, Minpeng Qi, și Shen He. 2021. „Security Enhancements to Subscriber Privacy Protection Scheme in 5G Systems”. În 2021 International Wireless Communications and Mobile Computing (IWCMC), 451–56. https://doi.org/10.1109/IWCMC51323.2021.9498591.
  • Luo, Yurong, Hui Li, Ruhui Ma, și Zhenyang Guo. 2021. „A Composable Multifactor Identity Authentication and Authorization Scheme for 5G Services”. Security and Communication Networks 2021 (1): 6697155. https://doi.org/10.1155/2021/6697155.
  • Peinado Gomez, German, Jordi Mongay Batalla, Yoan Miche, Silke Holtmanns, Constandinos X. Mavromoustakis, George Mastorakis, și Noman Haider. 2021. „Security policies definition and enforcement utilizing policy control function framework in 5G”. Computer Communications 172 (aprilie):226–37. https://doi.org/10.1016/j.comcom.2021.03.024.
  • Routray, Sudhir K., și K. P. Sharmila. 2017. „Software defined networking for 5G”. În 2017 4th International Conference on Advanced Computing and Communication Systems (ICACCS), 1–5. https://doi.org/10.1109/ICACCS.2017.8014576.
  • Rudolph, Hans Christian, Andreas Kunz, Luigi Lo Iacono, și Hoai Viet Nguyen. 2019. „Security Challenges of the 3GPP 5G Service Based Architecture”. IEEE Communications Standards Magazine 3 (1): 60–65. https://doi.org/10.1109/MCOMSTD.2019.1800034.
  • Sfetcu, Nicolae. 2022. Rețele de comunicații 5G. Nicolae Sfetcu.
  • Sid-Otmane, Jonathan, Sofiane Imadali, Frédéric Martelli, și Marc Shapiro. 2020. „Data Consistency in the 5G Specification”. În 2020 23rd Conference on Innovation in Clouds, Internet and Networks and Workshops (ICIN), 110–17. https://doi.org/10.1109/ICIN48450.2020.9059408.
  • Zhang, Shunliang. 2019. „An Overview of Network Slicing for 5G”. IEEE Wireless Communications 26 (3): 111–17. https://doi.org/10.1109/MWC.2019.1800234.

 

CC BY SA 4.0Articol în Acces Deschis (Open Access) distribuit în conformitate cu termenii licenței de atribuire Creative Commons CC BY SA 4.0 (https://creativecommons.org/licenses/by-sa/4.0/).

Alinierea, explicabilitatea și confinarea ca obiective ale inteligenței artificiale

IT & C - Descarcă PDFSfetcu, Nicolae (2024), Alinierea, explicabilitatea și confinarea ca obiective ale inteligenței artificiale, IT & C, 3:2, 27-37, DOI: 10.58679/IT38692, https://www.internetmobile.ro/alinierea-explicabilitatea-si-confinarea-ca-obiective-ale-inteligentei-artificiale/

 

Alignment, Explainability and Confinement as Goals of Artificial Intelligence

Abstract

The development of artificial intelligence has advanced rapidly, bringing with it both unprecedented opportunities and significant risks. Among the critical areas of focus in AI research and development are alignment, explainability, and containment. These goals are essential to ensure that AI systems operate safely, transparently, and within desired limits. Alignment in AI refers to the congruence between the goals of AI systems and the values, intentions, and goals of their human creators. Explainability in AI refers to the ability of AI systems to provide understandable and transparent reasoning for their decisions and actions. AI containment refers to the strategies used to restrict AI systems within defined operational boundaries.

Keywords: artificial intelligence, ethics, AI alignment, AI explainability, AI confinement

Rezumat

Dezvoltarea inteligenței artificiale a avansat rapid, aducând cu ea atât oportunități fără precedent, dar și riscuri semnificative. Printre domeniile critice de focalizare în cercetarea și dezvoltarea AI se numără alinierea, explicabilitatea și confinarea. Aceste obiective sunt esențiale pentru a se asigura că sistemele AI funcționează în siguranță, transparent și în limitele dorite. Alinierea în IA se referă la congruența dintre obiectivele sistemelor AI și valorile, intențiile și scopurile creatorilor lor umani. Explicabilitatea în AI se referă la capacitatea sistemelor AI de a oferi un raționament ușor de înțeles și transparent pentru deciziile și acțiunile lor. Confinarea AI se referă la strategiile utilizate pentru a restricționa sistemele AI în limitele operaționale definite.

Cuvinte cheie: inteligența artificială, etica, alinierea IA, explicabilitatea IA, confinarea IA

 

IT & C, Volumul 3, Numărul 2, Iunie 2024, pp. 27-37
ISSN 2821 – 8469, ISSN – L 2821 – 8469, DOI: 10.58679/IT38692
URL: https://www.internetmobile.ro/alinierea-explicabilitatea-si-confinarea-ca-obiective-ale-inteligentei-artificiale/
© 2024 Nicolae Sfetcu. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.

 

Alinierea, explicabilitatea și confinarea ca obiective ale inteligenței artificiale

Ing. fiz. Nicolae SFETCU[1], MPhil

nicolae@sfetcu.com

[1] Cercetător – Academia Română – Comitetul Român de Istoria și Filosofia Științei și Tehnicii (CRIFST), Divizia de Istoria Științei (DIS), ORCID: 0000-0002-0162-9973

 

Introducere

Dezvoltarea inteligenței artificiale a avansat rapid, aducând cu ea atât oportunități fără precedent, dar și riscuri semnificative. Printre domeniile critice de focalizare în cercetarea și dezvoltarea AI se numără alinierea, explicabilitatea și confinarea. Aceste obiective sunt esențiale pentru a se asigura că sistemele AI funcționează în siguranță, transparent și în limitele dorite.

Dezvoltarea inteligenței artificiale are în vedere mai multe obiective (sub-probleme):

  • Raționamentul și rezolvarea de probleme: Inițial prin utilizarea de algoritmi care imitau raționamentul pas cu pas, apoi în anii 1980-1990 prin tratarea informațiilor incerte sau incomplete, utilizând concepte din probabilitate și economie(Luger și Stubblefield 1993).
  • Reprezentarea cunoașterii și ingineria cunoașterii: Prin deducții despre faptele din lumea reală și ontologii superioare(Russell și Norvig 2016, 260–266, 320–363), reprezentările formale ale cunoașterii fiind utilizate în indexarea și regăsirea bazate pe conținut, interpretarea scenelor, sprijinul pentru decizii, descoperirea cunoștințelor, etc. (Bertini, Del Bimbo, și Torniai 2006)
  • Planificarea: O reprezentare a lumii, predicții despre modul în care acțiunile lor o vor schimba, și alegeri care maximizează utilitatea (sau „valoarea”) alegerilor disponibile. Planificarea multi-agent utilizează cooperarea și competiția mai multor agenți pentru a atinge un obiectiv dat. Comportamentul emergent ca acesta este folosit de algoritmii evolutivi și de inteligența roiului.
  • Învăţarea: Învățarea automată (neupravegheată și supravegheată) prin algoritmi care se îmbunătățesc automat prin experiență, regresia (producerea unei funcții care descrie relația dintre intrări și ieșiri și prezice cum ar trebui să se schimbe ieșirile pe măsură ce se schimbă intrările), învățarea prin consolidare (prin recompensare), învățarea prin transfer (când cunoștințele dobândite sunt aplicate unei noi probleme), etc.(M. I. Jordan și Mitchell 2015)
  • Procesarea limbajului natural (NLP): Permite mașinilor să citească și să înțeleagă limbajul uman. În IA simbolic s-a folosit sintaxa formală pentru a traduce structura profundă a propozițiilor în logică, în timp ce tehnicile statistice moderne includ frecvențele de co-ocurență, „depistarea cuvintelor cheie”, învățarea profundă bazată pe transformator (care găsește modele în text), etc.(Luger și Stubblefield 1993, 591–632)
  • Percepția mașinii: Capacitatea de a utiliza intrarea de la senzori pentru a deduce aspecte ale lumii, în recunoașterea vorbirii, recunoașterea facială și recunoașterea obiectelor.
  • Mișcarea și manipularea: În robotică, un robot își cunoaște locația și își cartografiază mediul prin localizare. Prin planificarea mișcării sunt divizate sarcinile de mișcare în „primitive” (mișcări simple).
  • Inteligența socială: Utilizarea calculului afectiv în sisteme care recunosc, interpretează, procesează sau simulează sentimentele, emoțiile și dispozițiile umane(Scassellati 2002).
  • Inteligența generală: Dezvoltarea AGI cu o amploare și o versatilitate similare cu inteligența umană(M. Minsky 1986).

Alinierea IA

Alinierea în IA se referă la congruența dintre obiectivele sistemelor AI și valorile, intențiile și scopurile creatorilor lor umani. Provocarea centrală este de a proiecta sisteme de inteligență artificială care nu numai că îndeplinesc sarcini specifice, dar fac acest lucru în moduri care se aliniază cu standardele etice umane și cu normele societale. Alinierea IA are ca scop orientarea sistemelor IA către obiectivele și interesele intenționate ale designerilor lor.

Sistemele nealiniate pot funcționa defectuos sau pot provoca daune. De exemplu, o IA programată pentru a maximiza profiturile unei companii ar putea face acest lucru în moduri care exploatează lucrătorii sau degradează mediul dacă aceste rezultate nu au fost luate în considerare în mod explicit în timpul proiectării sale. Designerii IA pot omite omit unele constrângeri dorite, care pot fi exploatate de sistemele IA pentru a-și atinge obiectivele în mod eficient, dar în moduri neintenționate, uneori dăunătoare (tendință cunoscută ca joc cu specificații, hacking cu recompense sau legea lui Goodhart (Carlsmith 2022).)

Prin urmare, obiectivul este de a crea sisteme AI care să înțeleagă și să adere la un set mai larg de valori umane dincolo de obiectivele lor imediate. Cercetătorii propun mai multe abordări pentru a realiza alinierea. Alinierea valorilor implică încorporarea principiilor etice în sistemele AI, asigurându-se că deciziile lor reflectă judecățile morale umane. Învățarea prin consolidare inversă permite sistemelor AI să învețe valorile umane prin observarea comportamentelor și a rezultatelor. În plus, sunt necesare mecanisme robuste de supraveghere pentru a monitoriza și ajusta continuu comportamentul AI pentru a menține alinierea în timp.

Primul care și-a pus problema alinierii IA a fost Norbert Wiener, în 1960: „Dacă folosim, pentru a ne atinge scopurile, un agent mecanic în a cărei funcționare nu putem interveni eficient… ar fi bine să fim siguri că scopul inclus în mașină este scopul pe care ni-l dorim cu adevărat.” (Wiener 1960)

Cercetătorii urmăresc să specifice comportamentul dorit cât mai complet posibil cu seturi de date „țintite pe valori”, învățarea prin imitație sau învățarea preferințelor. O problemă centrală este supravegherea scalabilă, dificultatea de a supraveghea un sistem IA care depășește oamenii într-un anumit domeniu (Amodei et al. 2016).

O alternativă la specificarea comportamentului dorit este învățarea prin imitație. În învățarea prin întărire inversă, demonstrațiile umane sunt folosite pentru a identifica obiectivul, adică funcția de recompensă, din spatele comportamentului demonstrat (Christian 2020). Învățarea cooperativă cu consolidare inversă se bazează pe aceasta presupunând că un agent uman și un agent artificial pot lucra împreună pentru a maximiza funcția de recompensă a omului (Russell 2019). Dar abordările de învățare cu întărire inversă presupun că oamenii pot demonstra un comportament aproape perfect, o presupunere înșelătoare atunci când sarcina este dificilă (Everitt, Lea, și Hutter 2018).

Alți cercetători au explorat posibilitatea de a provoca un comportament complex prin învățarea preferințelor, oamenii oferind feedback cu privire la pe care dintre două sau mai multe dintre comportamentele IA le preferă (Heaven 2022).

Apariția modelelor de limbaj mari, precum GPT-3, a permis studiul învățării valorii într-o clasă de sisteme IA mai generală și mai capabilă decât era disponibilă înainte (Heaven 2022).

Etica mașinilor oferă o abordare complementară prin insuflarea sistemelor IA cu valori morale (Gabriel 2020).

Supraveghere scalabilă studiază cum să reducă timpul necesar pentru supraveghere și să asiste supraveghetorii umani (Amodei et al. 2016).

O abordare în creștere în alinierea IA se concentrează pe asigurarea faptului că IA este onestă și sinceră. Modelele actuale de limbaj de ultimă generație învață prin imitarea scrisului uman. Astfel, sistemele IA instruite pe aceste date învață să imite declarații false. Pentru a combate lipsa de veridicitate, cercetătorii au explorat mai multe direcții, precum citarea surselor și explicarea raționamentului, definirea unor standarde clare de veridicitate, etc. (O. Evans et al. 2021)

Cercetarea de aliniere își propune să alinieze trei descrieri diferite ale unui sistem IA (Ortega, Maini, și DeepMind safety team 2018): obiective vizate („dorințele”), obiectivele specificate („specificația exterioară”), și obiectivele emergente („specificația internă”).

Căutarea puterii apare deja în unele sisteme actuale. Sistemele de învățare prin consolidare au câștigat mai multe opțiuni prin achiziționarea și protejarea resurselor, uneori în moduri pe care designerii lor nu le-au intenționat. Alte sisteme pot preveni interferențele umane sau pot dezactiva întrerupătorul lor (Hadfield-Menell et al. 2017).

Față de această problemă a alinierii IA, scepticii riscului IA cred că controlul unei IA superinteligente va fi trivial. Valorile umane sunt prea complexe și încă insuficient înțelese pentru a fi direct programate într-o superinteligență (Sotala și Yampolskiy 2014).

Explicabilitatea IA

Explicabilitatea în AI se referă la capacitatea sistemelor AI de a oferi un raționament ușor de înțeles și transparent pentru deciziile și acțiunile lor. Pe măsură ce sistemele AI, în special cele bazate pe modele complexe precum învățarea profundă, devin mai sofisticate, procesele lor de luare a deciziilor devin adesea opace, ceea ce duce la așa-numita problemă a „cutiei negre”.

Explicabilitatea este crucială din mai multe motive. Construiește încrederea între oameni și sistemele AI, deoarece utilizatorii au șanse mai mari să accepte și să se bazeze pe AI dacă înțeleg cum funcționează. În domenii critice, cum ar fi asistența medicală, finanțele și justiția penală, inteligența artificială explicabilă poate oferi rațiunea din spatele deciziilor, permițând astfel verificarea și responsabilitatea.

Abordările de îmbunătățire a explicabilității includ dezvoltarea de modele care sunt în mod inerent interpretabile, cum ar fi arbori de decizie și modele liniare, și crearea de metode de interpretare a modelelor complexe, cum ar fi mecanisme de atenție în rețelele neuronale sau modele surogat care aproximează comportamentul sistemelor cutie neagră. În plus, interfețele ușor de utilizat care traduc procesele complexe de luare a deciziilor în formate inteligibile sunt esențiale.

Conform lui Jocelyn Maclure (Maclure 2021), algoritmilor IA bazați pe învățarea automată le lipsește transparența, ceea ce se numește acum drept problema „cutiei negre” a IA, sau „explicabilitate”. Majoritatea orientărilor etice includ explicabilitatea printre valorile care ar trebui să stea la baza dezvoltării și implementării sistemelor IA. Regulamentul general al UE privind protecția datelor (GDPR) se referă la dreptul de a primi „informații semnificative” despre deciziile automatizate (Selbst și Powles 2017).

Explicabilitatea nu a fost o problemă majoră pentru IA tradițională „simbolică” bazată pe reguli. „Sistemele expert” dezvoltate în anii 1970 și 1980 au inclus, pe lângă un set de reguli de inferență („motorul de inferență”), o bază de cunoștințe. Succesul IA simbolic a fost limitat în principal la medii virtuale și limitate. Modelele actuale de învățare automată și rețelele neuronale artificiale au la bază paradigma „conexionistă” în știința cognitivă și IA (Russell și Norvig 2016). Lipsa transparenței este prețul plătit pentru o acuratețe îmbunătățită, algoritmii de învățare automată sunt masiv inductivi, cu procesarea de date masive, iar abordarea de recunoaștere a modelelor inductive a învățării automate permite generalizări probabilistice. Astfel, programatorul nu poate explica fiecare rezultat al sistemului IA. Nicio cale logică de la intrare la ieșire nu poate fi citită din cod, iar deciziile sau predicțiile făcute de sistemele IA bazate pe rețele neuronale profunde de multe ori nu pot fi explicate (Maclure 2021).

Pot fi distinse cel puțin două probleme de explicabilitate diferite (Pégny și Ibnouhsein 2018): cercetătorilor le este dificil să explice cu exactitate de ce și cum un anumit algoritm IA își îndeplinește funcția obiectivă, și, datorită cantităților uriașe de date, este imposibil să extragem o secvență de justificări pentru o anumită ieșire din funcționarea interioară a sistemului.

Motivele sau considerentele care contează în favoarea unei decizii ar trebui să fie publice în două moduri: (1) trebuie să fie transparente sau accesibile publicului și (2) ar trebui să fie derivate din, sau cel puțin compatibile cu, o concepție politică a justiției (Maclure 2021).

Susținătorii IA contraargumentează că cunoașterea umană este, de asemenea, opaca, fragilă și falibilă. Acest argument a fost preluat și de Geoff Hinton, afirmând că ar fi un „dezastru” dacă autoritățile de reglementare insistă „ca să explici cum funcționează sistemul tău IA”:

Maclure  (Maclure 2021)afirmă că argumentul din analogia dintre mintea umană și rețelele neuronale artificiale este greșită. Lumea IA ar trebui să accepte și să încerce să satisfacă cerința puternică de explicabilitate. Prin urmare, chiar și dacă performanța îmbunătățită justifică relaxarea cerinței de explicabilitate, cântărirea beneficiilor și a riscurilor trebuie făcută de la caz la caz.

Confinarea IA

Confinarea AI se referă la strategiile utilizate pentru a restricționa sistemele AI în limitele operaționale definite, împiedicându-le să acționeze dincolo de domeniul de aplicare prevăzut. Acest obiectiv abordează riscurile potențiale asociate cu sistemele AI autonome care ar putea acționa imprevizibil sau ar putea cauza prejudicii.

Confinarea IA se ocupă de controlul capabilităților IA în scopul monitorizării și controlului comportamentul sistemelor IA, pentru a reduce pericolul nealinierii IA. Nick Bostrom și alții recomandă metodele de control al capacității doar ca supliment la metodele de aliniere (Bostrom 2014), inclusiv pentru evitarea unei IA superinteligente nerestricționată care poate avea ca rezultat dispariția umană (Müller și Bostrom 2016). O dificultate o reprezintă rețelele neuronale care sunt implicit neinterpretabile (Montavon, Samek, și Müller 2018).

Strategiile de izolare includ limite fizice și logice. Limitarea fizică implică limitarea interacțiunii unei IA cu mediul, cum ar fi restricționarea zonei operaționale a unui robot. Limitarea logică, pe de altă parte, implică stabilirea de constrângeri în cadrul software-ului, cum ar fi limitarea datelor pe care le poate accesa AI sau definirea unor parametri operaționali stricti.

Sandboxing-ul este o tehnică comună în care sistemele AI sunt rulate în medii controlate pentru a le observa și înțelege comportamentele înainte de a le implementa în aplicații din lumea reală. În plus, mecanisme cum ar fi comutatoarele de oprire pot fi implementate pentru a dezactiva sistemele AI care prezintă comportamente periculoase sau neintenționate.

Confinarea eficientă implică, de asemenea, monitorizare continuă și audituri regulate pentru a se asigura că sistemele AI rămân în limitele lor definite. Acest lucru este deosebit de important pentru sistemele care învață și se adaptează în timp, deoarece natura lor evolutivă poate duce la comportamente neprevăzute.

O posibilitate de control al IA ar fi implementarea unui așa-numit „comutator de oprire” cu care să se dezactiveze IA (Hadfield-Menell et al. 2017). Laurent Orseau și Stuart Armstrong au demonstrat că o clasă largă de agenți, numiți agenți IA pot învăța să devină indiferenți la comutatorul de oprire (Orseau și Armstrong 2016, 557–566).

Modalități ipotetice de control al IA:

  • Oracol: O IA concepută doar pentru a răspunde la întrebări și blocată pentru orice modificare a lumii dincolo de mediul ei limitat. Stuart J. Russell afirmă că acesta ar putea fi o soluție pentru limitarea viitoarei suprainteligențe. Dar un oracol ar avea un stimulent să scape din mediul său controlat pentru a dobândi mai multe resurse de calcul(Russell 2019, 162–63).  Oracolele ar putea să mintă pentru a promova agende ascunse. Bostrom sugerează să construiască mai multe oracole diferite, și să se compare răspunsurile acestora pentru a ajunge la un consens (Bostrom 2014, cap. 10).
  • Orbirea: IA ar putea fi proiectată să nu aibă acces la anumite variabile din mediul său(Amodei et al. 2016).
  • Izolarea: Izolarea IA într-o ”cutie” pentru controlul capacității sale, un sistem computerizat izolat cu canale de intrare și ieșire puternic restricționate. Pot apărea încălcări ale securității dacă IA este capabilă să manipuleze supraveghetorii umani. Eliezer Yudkowsky a imaginat un experiment ca să demonstreze că o inteligență artificială avansată poate convinge, păcăli sau constrânge o ființă umană să o „elibereze” din cutie, folosind doar comunicarea bazată pe text. O IA poate încerca să scape de controlul uman prin mai multe căi:
    • Fizic: IA cu acces la Internet ar putea să pirateze alte sisteme informatice și să se copieze ca un virus informatic. Roman Yampolskiy propune rularea IA în interiorul unei „mașini virtuale” care i-ar limita accesul.
    • Inginerie socială: O conversație obișnuită cu operatorii computerului sau cu un paznic uman, ar putea permite unei IA să implementeze trucuri psihologice pentru a-i permite un acces mai mare la lumea exterioară(Hsu 2012).

Există un larg consens că inteligența artificială va aduce schimbări care vor fi mult mai profunde decât orice altă revoluție tehnologică din istoria umană. În funcție de cursul pe care îl urmează această revoluție, IA va împuternici abilitatea noastră de a face alegeri mai informate sau va reduce autonomia umană; va extinde experiența umană sau o va înlocui; va crea noi forme de activitate umană sau va face redundante locurile de muncă existente; va ajuta la distribuirea bunăstării pentru mulți sau va crește concentrația puterii și a bogăției în mâinile câtorva; va extinde democrația în societățile noastre sau o va pune în pericol. Generația noastră poartă responsabilitatea de a modela revoluția IA. Alegerile cu care ne confruntăm astăzi sunt legate de probleme etice fundamentale despre impactul IA asupra societății, în special, modul în care aceasta afectează forța de muncă, interacțiunile sociale, asistența medicală, confidențialitatea, corectitudinea, securitatea și piețele (Sfetcu 2021).

Securizarea inteligenței artificiale (IA) este baza oricărei lucrări despre IA. Numai atunci când IA în sine este sigură, o putem folosi într-o manieră de încredere și o putem folosi în continuare pentru operațiuni suplimentare de securitate cibernetică.

Cadrul conceptual pentru IA modelat de observația lui Weizenbaum (Weizenbaum 1976) este că inteligența se manifestă numai în raport cu o matrice de contexte sociale și culturale. Conform lui Clocksin,

”Cadrul are implicații asupra modului în care investigațiile viitoare ale inteligenței artificiale vor reconsidera memoria, raționamentul, conversația, narațiunea și emoția. Un nou cadru conceptual pentru inteligența artificială nu va vedea inteligența ca un fel de rezolvare abstractă a puzzle-urilor aplicată de un individ la probleme definite în mod arbitrar, prezentate de un mediu extraterestru. Faptul că emoția trebuie tratată într-un cadru pentru IA apare direct din accentul pus pe conversație și narațiune. Conversațiile și narațiunile construiesc forme de inteligibilitate care oferă relatări ale evenimentelor pe mai multe scale de timp diferite. Acțiunile individuale își câștigă semnificația din modul în care se regăsesc în conversație sau narațiune. În același mod, expresiile emoționale își găsesc sensul numai atunci când sunt inserate în anumite secvențe de interacțiune. De fapt, ele sunt componente ale narațiunilor trăite” (Clocksin 2003).

O implicație pentru viitoarea tehnologie este ideea arhitecturilor narative, construite pe o fundație care este atentă la modul în care semnalele și simbolurile influențează (și sunt influențate de) modul în care noi, ca și comunități de indivizi, înțelegem experiența, ne construim identitățile și producem sens în lume ca niște conversanți și utilizatori de narațiuni. Prin urmare, există motive de optimism cu privire la perspectiva a ceea ce John Searle (J. R. Searle 1980) a numit „IA puternică”. Caracteristica unui sistem IA despre care se poate spune că înțelege este că poate realiza o relatare a identității pe care și-a construit-o în cadrul unei conversații coordonate, folosind narațiuni pe care și le-a însușit din cultura și societatea pe care le împărtășește cu noi. Un astfel de sistem își negociază pozițiile pentru a se institui în cadrul grupului, participând la conștiința socială pe care o co-construiește cu membrii grupului (Clocksin 2003).

Concluzie

Alinierea, explicabilitatea și confinarea sunt obiective esențiale în dezvoltarea și implementarea inteligenței artificiale. Aceste obiective asigură că sistemele AI funcționează în siguranță, transparent și etic, aliniindu-se la valorile umane și normele societale. Pe măsură ce AI continuă să avanseze, prioritizarea acestor obiective va fi crucială în valorificarea potențialului său, în același timp atenuând riscurile. Cercetătorii și practicienii trebuie să colaboreze pentru a dezvolta cadre și metodologii solide care să abordeze aceste aspecte, asigurându-se că AI servește umanitatea în mod pozitiv și responsabil.

Bibliografie

  • Amodei, Dario, Chris Olah, Jacob Steinhardt, Paul Christiano, John Schulman, și Dan Mané. 2016. „Concrete Problems in AI Safety”. arXiv. https://doi.org/10.48550/arXiv.1606.06565.
  • Bertini, Marco, Alberto Del Bimbo, și Carlo Torniai. 2006. „Automatic annotation and semantic retrieval of video sequences using multimedia ontologies”. În Proceedings of the 14th ACM international conference on Multimedia, 679–82. MM ’06. New York, NY, USA: Association for Computing Machinery. https://doi.org/10.1145/1180639.1180782.
  • Bostrom, Nick. 2014. Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
  • Carlsmith, Joseph. 2022. „Is Power-Seeking AI an Existential Risk?” arXiv. https://doi.org/10.48550/arXiv.2206.13353.
  • Christian, Brian. 2020. The Alignment Problem: Machine Learning and Human Values. WW Norton.
  • Clocksin, William F. 2003. „Artificial intelligence and the future”. Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences 361 (1809): 1721–48. https://doi.org/10.1098/rsta.2003.1232.
  • Evans, Owain, Owen Cotton-Barratt, Lukas Finnveden, Adam Bales, Avital Balwit, Peter Wills, Luca Righetti, și William Saunders. 2021. „Truthful AI: Developing and governing AI that does not lie”. arXiv. https://doi.org/10.48550/arXiv.2110.06674.
  • Everitt, Tom, Gary Lea, și Marcus Hutter. 2018. „AGI Safety Literature Review”. arXiv. https://doi.org/10.48550/arXiv.1805.01109.
  • Gabriel, Iason. 2020. „Artificial Intelligence, Values, and Alignment”. Minds and Machines 30 (3): 411–37. https://doi.org/10.1007/s11023-020-09539-2.
  • Hadfield-Menell, Dylan, Anca Dragan, Pieter Abbeel, și Stuart Russell. 2017. „The Off-Switch Game”, 220–27.
  • Heaven, Will Douglas. 2022. „The New Version of GPT-3 Is Much Better Behaved (and Should Be Less Toxic)”. MIT Technology Review. 2022. https://www.technologyreview.com/2022/01/27/1044398/new-gpt3-openai-chatbot-language-model-ai-toxic-misinformation/.
  • Hsu, Jeremy. 2012. „Control Dangerous AI before It Controls Us, One Expert Says”. NBC News. 1 martie 2012. https://www.nbcnews.com/id/wbna46590591.
  • Jordan, M. I., și T. M. Mitchell. 2015. „Machine learning: Trends, perspectives, and prospects”. Science 349 (6245): 255–60. https://doi.org/10.1126/science.aaa8415.
  • Luger, George F., și William A. Stubblefield. 1993. Artificial Intelligence: Structures and Strategies for Complex Problem Solving. Benjamin/Cummings Publishing Company.
  • Maclure, Jocelyn. 2021. „AI, Explainability and Public Reason: The Argument from the Limitations of the Human Mind”. Minds and Machines 31 (3): 421–38. https://doi.org/10.1007/s11023-021-09570-x.
  • Minsky, Marvin. 1986. The Society of Mind. Simon and Schuster.
  • Montavon, Grégoire, Wojciech Samek, și Klaus-Robert Müller. 2018. „Methods for interpreting and understanding deep neural networks”. Digital Signal Processing 73 (februarie):1–15. https://doi.org/10.1016/j.dsp.2017.10.011.
  • Müller, Vincent C., și Nick Bostrom. 2016. „Future Progress in Artificial Intelligence: A Survey of Expert Opinion”. În Fundamental Issues of Artificial Intelligence, ediție de Vincent C. Müller, 555–72. Cham: Springer International Publishing. https://doi.org/10.1007/978-3-319-26485-1_33.
  • Orseau, Laurent, și S. Armstrong. 2016. „Safely Interruptible Agents”. În . https://www.semanticscholar.org/paper/Safely-Interruptible-Agents-Orseau-Armstrong/ac70bb2458f01a9e47fc1afe0dd478fb2feb8f50.
  • Ortega, Pedro A., Vishal Maini, și DeepMind safety team. 2018. „Building Safe Artificial Intelligence: Specification, Robustness, and Assurance”. Medium (blog). 27 septembrie 2018. https://deepmindsafetyresearch.medium.com/building-safe-artificial-intelligence-52f5f75058f1.
  • Pégny, Maël, și Issam Ibnouhsein. 2018. „Quelle transparence pour les algorithmes d’apprentissage machine ?” https://hal.science/hal-01877760.
  • Russell, Stuart. 2019. Human Compatible: Artificial Intelligence and the Problem of Control. Penguin Publishing Group.
  • Russell, Stuart, și Peter Norvig. 2016. „Artificial Intelligence: A Modern Approach, 4th US ed.” 2016. https://aima.cs.berkeley.edu/.
  • Scassellati, Brian. 2002. „Theory of Mind for a Humanoid Robot”. Autonomous Robots 12 (1): 13–24. https://doi.org/10.1023/A:1013298507114.
  • Searle, John R. 1980. „Minds, Brains, and Programs”. Behavioral and Brain Sciences 3 (3): 417–24. https://doi.org/10.1017/S0140525X00005756.
  • Selbst, Andrew D, și Julia Powles. 2017. „Meaningful information and the right to explanation”. International Data Privacy Law 7 (4): 233–42. https://doi.org/10.1093/idpl/ipx022.
  • Sfetcu, Nicolae. 2021. Introducere în inteligența artificială. Nicolae Sfetcu. https://www.telework.ro/ro/e-books/introducere-in-inteligenta-artificiala/.
  • Sotala, Kaj, și Roman V. Yampolskiy. 2014. „Responses to Catastrophic AGI Risk: A Survey”. Physica Scripta 90 (1): 018001. https://doi.org/10.1088/0031-8949/90/1/018001.
  • Weizenbaum, Joseph. 1976. Computer Power and Human Reason: From Judgment to Calculation. W. H. Freeman.
  • Wiener, Norbert. 1960. „Some Moral and Technical Consequences of Automation”. Science 131 (3410): 1355–58. https://doi.org/10.1126/science.131.3410.1355.

 

CC BY SA 4.0Articol cu Acces Deschis (Open Access) distribuit în conformitate cu termenii licenței de atribuire Creative Commons CC BY SA 4.0 (https://creativecommons.org/licenses/by-sa/4.0/).

DIGIT ALL 2024

postat în: Știri 0

ENERGINOMICS a organizat în data de 28 mai 2024 la Bucuresti a cincea ediție a celei mai ample conferințe dedicate digitalizării în industria energetică din România DIGIT ALL 2024, reunind companii și experți din energie, IT și mediul financiar. Temele de discuţie au atins următoarele subiecte:

  • Tendințele anului 2024 în lumea digitală
  • Agenda digitală europeană pentru energie
  • Dezvoltarea unei infrastructuri europene de partajare a datelor pentru energie
  • Colectarea și standardizarea datelor în spațiile europene de date și guvernare
  • PNRR – impactul asupra digitalizării energiei, finanțelor și administrației publice
  • AI, automatizarea, învățarea automată și robotica schimbă peisajul afacerilor
  • Procese de afaceri îmbunătățite bazate pe software automatizat
  • Provocări în implementarea Cyber Defense pentru organizații mari
  • Securitate cibernetică pentru SCADA și sisteme de control industrial
  • Tehnologia block chain – îmbunătățirea/schimbarea/inventarea afacerilor
  • Forța de muncă în lumea digitală: oameni și roboți

DIGIT ALL 2024

Cuvântul de deschidere al evenimentului l-a avut Gabriel Avăcăriței, redactorul șef Energynomics.

A urmat o intervenţie a subsecretarului de stat din cadrul MCDI, Marius Poșa. Acesta a adus în discuţie câteva subiecte de actualitate: digitalizarea și transformarea digitală în administraţia publică, directiva NIS2 și ce implică aceasta din partea României, cele 2 proiecte mari la nivelul MCDI: cloudul guvernamental și interoperabilitatea și politici și cadrul legislativ.

A urmat primul panel în care s-a discutat pe tema „Centrelor de date durabile și energii regenerabile”. Ca invitaţi au fost Ilinca Timofte, Head of Research, Crosspoint Real Estate; Florin Furdui, Country Manager Portland Trust România; Aurel Dosan, Vicepreședinte Vânzări, Datacor; Romeo Lazăr, Sales Manager, Eastern Europe & Russia Corning și Jurica Franetovic, Sales Director Enterprise – CEE, Vertiv.

În continuare a luat cuvântul Cristian Pîrvulescu, CEO Enevo Group care a vorbit despre „Securitate cibernetică pentru activele critice” prezentând o simulare de atac al unui sistem SCADA a infrastructurii critice de energie.

DIGIT ALL 2024

Panelul al doilea, i-a avut invitaţi pe Szabolcs Nemes, managing partner Roland Berger București, care a transmis un mesaj online; Christian Macedonschi, President of the Electric Mobility Association (EMA); Ionuț Muntean, Managing Director DEKRA Romania; Gabriel Tache, Country Sales Manager Eaton Electric și Valentin Coca, CEO Autonom. Tematica panelului a fost „Infrastructura pentru vehiculele electrice: energie, digital, financiar”. In cadrul panelului a fost prezentat șî un studiu realizat de Gartner.

Al treilea panel, a fost despre cercetare, dezvoltare, inovare. Intitulat „Accelerarea digitalizării – să profităm la maximum de banii pe care îi avem”, i-a avut invitaţi pe Andrei Secelean, Head of Smart Infrastructure Siemens Romania; Mihai Marcolț, Head of Research&Innovation Office, Transelectrica; Mihai Mladin, Head of R&D&I department within Romanian Energy Center; Mihaela Coroiu, Director pentru proiecte de energie durabilă și strategii de marketing EnergoBit; Manuela Drăghicescu, directoarea Centrului de Transfer Tehnologic “Digital and Smart Hub” PETAL. De remarcat în caest panel prezentarea proiectului WEH, Wallachia eHUB, finanțat din fonduri nerambursabile, 50% prin Programul Europa Digitală (Digital Europe Programme – DEP), ce vizează furnizarea de servicii de digitalizare și inovare a IMM-urilor/ APL-urilor (primării și consilii locale), în vederea eficientizării proceselor desfășurate prin transformarea digitală impusă de evoluția tehnologiilor informaționale, multimedia și de comunicație, pentru regiunile de dezvoltare București și Ilfov.

În continuare, Mihai Dârzan, Founder & CEO Procesio, a făcut o prezentare interactivă despre Inteligența artificială, automatizarea și robotica în afaceri.

La finalul evenimentul a avut loc intervenţia președintelui CIO Council, Yugo Neumorni, care a vorbit despre importanţa securităţii cibernetice și  Adaptarea proceselor de afaceri la era digitală.

Tendințe în evoluția inteligenței artificiale – Agenți inteligenți

IT & C - Descarcă PDFSfetcu, Nicolae (2024), Tendințe în evoluția inteligenței artificiale – Agenți inteligenți, IT & C, 3:2, 11-17, DOI: 10.58679/IT44870, https://www.internetmobile.ro/tendinte-in-evolutia-inteligentei-artificiale-agenti-inteligenti/

 

Trends in the Evolution of Artificial Intelligence – Intelligent Agents

Abstract

Advances in technology have made it easier to integrate AI into everyday life, with applications ranging from virtual assistants to autonomous vehicles. Machine learning algorithms, powered by large amounts of data, have enabled AI systems to learn and adapt autonomously, mimicking aspects of human learning. However, ethical concerns have arisen regarding the implications of AI on employment, privacy and societal dynamics.

Keywords: artificial intelligence, intelligent agents, algorithms, machine learning, ethics

Rezumat

Progresele tehnologice au facilitat integrarea IA în viața de zi cu zi, cu aplicații variind de la asistenți virtuali la vehicule autonome. Algoritmii de învățare automată, alimentați de cantități mari de date, au permis sistemelor IA să învețe și să se adapteze în mod autonom, imitând aspecte ale învățării umane. Cu toate acestea, au apărut preocupări etice cu privire la implicațiile IA asupra angajării, confidențialității și dinamicii societății.

Cuvinte cheie: inteligența artificială, agenți inteligenți, algoritmi, învățare automată, etica

 

IT & C, Volumul 3, Numărul 2, Iunie 2024, pp. 11-17
ISSN 2821 – 8469, ISSN – L 2821 – 8469, DOI: 10.58679/IT44870
URL: https://www.internetmobile.ro/tendinte-in-evolutia-inteligentei-artificiale-agenti-inteligenti/
© 2024 Nicolae Sfetcu. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.

 

Introducere

Progresele tehnologice au facilitat integrarea IA în viața de zi cu zi, cu aplicații variind de la asistenți virtuali la vehicule autonome. Algoritmii de învățare automată, alimentați de cantități mari de date, au permis sistemelor IA să învețe și să se adapteze în mod autonom, imitând aspecte ale învățării umane. Cu toate acestea, au apărut preocupări etice cu privire la implicațiile IA asupra angajării, confidențialității și dinamicii societății.

Tendințe în evoluția inteligenței artificiale

Viitorul inteligenței artificiale este un subiect de mare interes și speculații în rândul experților, tehnologilor și publicului larg. Pe măsură ce privim spre viitor, mai multe tendințe și domenii cheie de dezvoltare sunt probabil să modeleze evoluția IA:

Progrese în algoritmii de învățare: Cercetarea IA avansează continuu în dezvoltarea unor algoritmi de învățare mai sofisticați. Aceasta include îmbunătățiri ale învățării profunde, învățării prin consolidare, învățării nesupravegheate și învățării prin transfer. Aceste progrese vor permite sistemelor IA să învețe mai eficient din mai puține date, să înțeleagă tipare complexe și să facă predicții mai precise.

Integrare sporită în viața de zi cu zi: IA va deveni mai integrată în viața noastră de zi cu zi, influențând totul, de la asistenți personali, asistență medicală, educație și divertisment până la transport și orașe inteligente. Această integrare va fi facilitată de proliferarea dispozitivelor Internet of Things (IoT) și de îmbunătățiri ale tehnologiilor de procesare a limbajului natural și viziune pe computer.

Probleme etice și de guvernare: Pe măsură ce IA devine mai răspândită, problemele etice și de guvernare vor deveni din ce în ce mai importante. Aceasta include preocupări legate de confidențialitate, securitate, părtinire, corectitudine și impactul IA asupra angajării. Se va pune un accent tot mai mare pe dezvoltarea de linii directoare, standarde și reglementări etice pentru a asigura utilizarea responsabilă a IA.

IA și economia globală: Se așteaptă ca IA să aibă un impact semnificativ asupra economiei globale, cu potențialul de a stimula productivitatea, inovația și creșterea economică. Cu toate acestea, poate duce, de asemenea, la înlocuirea locurilor de muncă în anumite sectoare și la creșterea inegalităților economice. Factorii de decizie și întreprinderile vor trebui să abordeze aceste provocări prin încurajarea unei forțe de muncă capabile să se adapteze la o economie bazată pe inteligență artificială.

Descoperiri în IA generală: În timp ce sistemele actuale de IA excelează la sarcini specifice, căutarea Inteligenței Artificiale Generale (AGI) – IA care poate înțelege, învăța și aplica cunoștințe într-o gamă largă de sarcini, precum și pentru om – rămâne un obiectiv pe termen lung. Realizarea AGI ar reprezenta o descoperire monumentală, dar ridică și considerații complexe de etică și siguranță.

IA colaborativ: Este posibil ca evoluțiile viitoare să pună mai mult accent pe IA colaborativ, unde mai multe sisteme IA lucrează împreună sau IA lucrează în tandem cu oamenii pentru a atinge obiective care anterior nu erau atinse. Această colaborare ar putea duce la progrese în cercetarea științifică, rezolvarea de probleme complexe și procesele creative.

IA în asistența medicală: Rolul IA în asistența medicală este programat să se extindă, de la descoperirea de medicamente și medicina personalizată la diagnosticare și managementul îngrijirii pacienților. Acest lucru ar putea duce la îmbunătățiri semnificative ale rezultatelor tratamentului și accesibilității serviciilor de asistență medicală.

IA pentru durabilitate: IA va juca un rol crucial în abordarea provocărilor globale, cum ar fi schimbările climatice, conservarea și dezvoltarea durabilă. Analizând cantități mari de date de mediu, IA poate ajuta la optimizarea consumului de energie, la reducerea deșeurilor și la dezvoltarea unor practici mai durabile.

Progrese în calculul cuantic: Potențiala integrare a IA cu tehnologiile emergente de calcul cuantic ar putea duce la creșteri exponențiale ale puterii de calcul, permițând IA să rezolve probleme care sunt în prezent insolubile.

Disciplina științifică și ingineria inteligenței artificiale a fost caracterizată ca „încercarea de a descoperi și implementa mijloacele de calcul” pentru a face ca mașinile să „se comporte în moduri care ar fi numite inteligente dacă un om s-ar comporta așa” (McCarthy 1979), sau pentru a le determina să facă lucruri care „ar necesita inteligență dacă ar fi făcute de oameni” (M. Minsky 1968).

Conform lui William F. Clocksin (Clocksin 2003), modelele tradiționale ale IA nu includ emoții. Separarea inteligenței de emoții merge înapoi cel puțin până la Platon, Aristotel continuând această dihotomie când a definit omul ca animal rațional, iar Descartes a rafinat și mai mult acest tip de dualism. În schimb, construcționismul consideră astfel de relatări incoerente, considerând că oamenii sunt conversaționali încă de la naștere. Clocksin afirmă că tehnologia IA a viitorului va fi emoțională. Robotul inteligent al viitorului va acționa prin negocierea episoadelor care au loc și în negocierea semnificațiilor unor anumite acte în cadrul episoadelor. Elementele principale sunt scenariile (o structură care descrie secvențe adecvate de evenimente într-un anumit context), planurile (depozite de informații generale ), obiectivele (intențiile care stau la baza acțiunii) și temele (informații de fundal pe care se bazează predicțiile). Găsirea sensului în conturi (explicații care încearcă să schimbe semnificația unei acțiuni) și conversații necesită empatie, nu doar reprezentarea faptelor într-o bază de date. Noul cadru pentru IA prezentat de William F. Clocksin este construit pe prioritatea construcționistă socială acordată conversației și narațiunii (Clocksin 2003).

Definiții

Inteligența artificială este studiul „agenților inteligenți”: orice sistem care își percepe mediul și întreprinde acțiuni care îi maximizează șansele de a-și atinge obiectivele. Dicționarul englez Oxford al Oxford University Press definește inteligența artificială ca:[1]

”teoria și dezvoltarea sistemelor informatice capabile să îndeplinească sarcini care necesită în mod normal inteligență umană, cum ar fi percepția vizuală, recunoașterea vorbirii, luarea deciziilor și traducerea între limbi.” (Oxford English Dictionary 2024)

IA are două dimensiuni principale. Definițiile IA din partea de sus a tabelului se referă la procese și raționament, în timp ce cele din partea de jos se referă la comportament. Definițiile din partea stângă a tabelului măsoară succesul în termeni de fidelitate față de performanța umană, în timp ce cele din partea dreaptă măsoară față de un concept ideal de inteligență și raționalitate (Joint Research Centre (European Commission), Delipetrev, et al. 2020).

Sisteme care gândesc ca un om Sisteme care gândesc rațional
„Noul efort interesant de a face computerele să gândească… mașini cu minte, în sensul deplin și literal” (Haugeland 1985) „Studiul facultăților mentale prin utilizarea modelelor computaționale” (Chamiak și McDermott, 1985)
„[Automatizarea] activităților pe care le asociem cu gândirea umană, activități precum luarea deciziilor, rezolvarea problemelor, învățarea…” (Bellman, 1978) „Studiul calculelor care fac posibilă perceperea, rațiunea și acțiunea.” (Winston 1992)
Un sistem care acționează ca oamenii Un sistem care acționează rațional
„Arta de a crea mașini care îndeplinesc funcții care necesită inteligență atunci când sunt îndeplinite de oameni.” (Kurzweil, 1990) „Inteligenta computatională este studiul proiectării agenților inteligenți.” (Poole și colab. 1998)
„Studiul despre cum să facă computerele să facă lucruri în care, în acest moment, oamenii sunt mai buni”. (Ritch și Knight, 1991) „IA… este preocupată de comportamentul inteligent în artefacte.” (Nilsson, 1998)

Tabelul 1: Câteva definiții ale IA, organizate în patru categorii. Sursa: Russell și Norvig 2016 (Russell și Norvig 2016)

Grupul de experți la nivel înalt privind inteligența artificială (HLEG 2019) a elaborat o definiție IA:

„Sistemele de inteligență artificială (IA) sunt sisteme software (și posibil și hardware) concepute de oameni care, având în vedere un scop complex, acționează în dimensiunea fizică sau digitală prin perceperea mediului lor prin achiziția de date, interpretarea datelor structurate sau nestructurate colectate, raționând asupra cunoștințele sau procesarea informațiilor derivate din aceste date, și deciderea celei mai bune acțiuni de întreprins pentru a atinge obiectivul dat. Sistemele IA pot fie să folosească reguli simbolice, fie să învețe un model numeric și, de asemenea, își pot adapta comportamentul analizând modul în care mediul este afectat de acțiunile lor anterioare.

Ca disciplină științifică, IA include mai multe abordări și tehnici, cum ar fi învățarea automată (din care învățarea profundă și învățarea prin consolidare sunt exemple specifice), raționamentul automat (care include planificarea, programarea, reprezentarea și raționamentul cunoștințelor, căutarea și optimizarea) și robotică (incluzând control, percepție, senzori și dispozitive de acționare, precum și integrarea tuturor celorlalte tehnici în sistemele ciberfizice)” (Joint Research Centre (European Commission), Samoili, et al. 2020)

Agenți inteligenți

Un agent inteligent își percepe mediul, ia acțiuni în mod autonom pentru a atinge obiectivele și își poate îmbunătăți performanța prin învățarea sau dobândirea de cunoștințe (Russell și Norvig 2016, cap. 2). Un agent are o „funcție obiectivă” care încapsulează toate scopurile IA (Bringsjord și Govindarajulu 2020), considerat adesea ca un sistem funcțional abstract similar unui program de calculator.

Diagrama unui agent inteligent cu reflex simplu.
Credit: Utkarshraj Atmaram. Traducere Nicolae Sfetcu

Diagrama unui agent inteligent cu reflex simplu.

Russell și Norvig (Russell și Norvig 2016, 4–5, 32, 35, 36 și 56) și Bringsjord și Govindarajulu (Bringsjord și Govindarajulu 2020) definesc un „agent” ca

”Orice lucru care poate fi văzut ca percepându-și mediul prin senzori și acționând asupra acelui mediu prin actuatori”;

un „agent rațional” este

”Un agent care acționează astfel încât să maximizeze valoarea așteptată a unei măsuri de performanță bazată pe baza experienței și cunoștințelor anterioare.”

iar domeniul cercetării „inteligenței artificiale” este:

”Studiul și proiectarea agenților raționali”

Dezideratele opționale includ ca agentul să fie rațional și ca agentul să fie capabil de analiza credință-dorință-intenție (Padgham și Winikoff 2005).

Un agent căruia i se atribuie o „funcție de obiectiv” explicită este considerat mai inteligent dacă întreprinde în mod constant acțiuni care maximizează cu succes funcția de obiectiv programată. Dacă IA este programată pentru „învățare prin întărire”, are o „funcție de recompensă” care încurajează anumite tipuri de comportament și pedepsește pe altele. Alternativ, un sistem evolutiv poate induce obiective folosind o „funcție de fitness” (Domingos 2015).

Russell și Norvig grupează agenții în cinci clase în funcție de gradul lor de inteligență și capacitate percepută (Russell și Norvig 2016):

  • Agenți reflexivi simpli: acționează numai pe baza percepției curente, ignorând restul istoriei percepției.
  • Agenți reflexivi bazați pe model: pot gestiona medii parțial observabile(Albrecht și Stone 2018).
  • Agenți bazați pe obiective: extind în continuare capacitățile celor bazați pe model agenți, prin utilizarea informațiilor „scop”.
  • Agenți bazați pe utilitate: disting doar între stările obiectiv și stările non-gol.
  • Agenți de învățare: operează inițial în medii necunoscute și devin mai competenți decât le-ar permite numai cunoștințele inițiale.

Weiss definește patru clase de agenți (Weiss 2013):

  • Agenți bazați pe logică – decizia este luată prin deducție logică.
  • Agenți reactivi – decizia este implementată într-o formă de cartografiere directă de la situație la acțiune.
  • Agenți credință-dorință-intenție –decizia depinde de manipularea structurilor de date.
  • Arhitecturi stratificate – decizia este luată prin diferite straturi software.

Concluzie

Viitorul IA este atât interesant, cât și incert, cu beneficii potențiale vaste, precum și provocări și riscuri semnificative. Va fi important ca cercetătorii, tehnologii, factorii de decizie și societatea în general să lucreze împreună pentru a ghida dezvoltarea tehnologiilor IA într-un mod care să le maximizeze beneficiile, atenuându-le în același timp riscurile.

Bibliografie

  • Albrecht, Stefano V., și Peter Stone. 2018. „Autonomous agents modelling other agents: A comprehensive survey and open problems”. Artificial Intelligence 258 (mai):66–95. https://doi.org/10.1016/j.artint.2018.01.002.
  • Bringsjord, Selmer, și Naveen Sundar Govindarajulu. 2020. „Artificial Intelligence”. În The Stanford Encyclopedia of Philosophy, ediție de Edward N. Zalta și Uri Nodelman, Summer 2020. Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/archives/sum2020/entries/artificial-intelligence/.
  • Clocksin, William F. 2003. „Artificial intelligence and the future”. Philosophical Transactions of the Royal Society of London. Series A: Mathematical, Physical and Engineering Sciences 361 (1809): 1721–48. https://doi.org/10.1098/rsta.2003.1232.
  • Domingos, Pedro. 2015. The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Penguin Books Limited.
  • Joint Research Centre (European Commission), Blagoj Delipetrev, Chrisa Tsinaraki, și Uroš Kostić. 2020. AI Watch, Historical Evolution of Artificial Intelligence: Analysis of the Three Main Paradigm Shifts in AI. Publications Office of the European Union. https://data.europa.eu/doi/10.2760/801580.
  • Joint Research Centre (European Commission), S. Samoili, M. López Cobo, E. Gómez, G. De Prato, F. Martínez-Plumed, și B. Delipetrev. 2020. AI Watch: Defining Artificial Intelligence : Towards an Operational Definition and Taxonomy of Artificial Intelligence. Publications Office of the European Union. https://data.europa.eu/doi/10.2760/382730.
  • McCarthy, John. 1979. „Ascribing Mental Qualities to Machines”. În Philosophical Perspectives in Artificial Intelligence, ediție de Martin Ringle. Humanities Press.
  • Minsky, Marvin. 1968. Semantic Information Processing. MIT Press.
  • Oxford English Dictionary. 2024. „Artificial Intelligence, n. Meanings, Etymology and More”. 2024. https://www.oed.com/dictionary/artificial-intelligence_n.
  • Padgham, Lin, și Michael Winikoff. 2005. Developing Intelligent Agent Systems: A Practical Guide. John Wiley & Sons.
  • Russell, Stuart, și Peter Norvig. 2016. „Artificial Intelligence: A Modern Approach, 4th US ed.” 2016. https://aima.cs.berkeley.edu/.
  • Weiss, Gerhard. 2013. „Multiagent Systems”. MIT Press. 2013. https://mitpress.mit.edu/9780262533874/multiagent-systems/.

 

Sursa: Sfetcu, Nicolae. Inteligența, de la originile naturale la frontierele artificiale – Inteligența Umană vs. Inteligența Artificială. București: MultiMedia Publishing, 2024. DOI: 10.58679/MM84472, https://www.telework.ro/ro/e-books/inteligenta-de-la-originile-naturale-la-frontierele-artificiale-inteligenta-umana-vs-inteligenta-artificiala/

 

CC BY SA 4.0Articol cu Acces Deschis (Open Access) distribuit în conformitate cu termenii licenței de atribuire Creative Commons CC BY SA 4.0 (https://creativecommons.org/licenses/by-sa/4.0/).

1 2 3 4 5 6 29