Tehnologia radar, coloana vertebrală a sistemelor moderne de apărare în războiul electronic

Sfetcu, Nicolae (2024), Tehnologia radar, coloana vertebrală a sistemelor moderne de apărare în războiul electronic, IT & C, 3:4, https://www.internetmobile.ro/tehnologia-radar-coloana-vertebrala-a-sistemelor-moderne-de-aparare-in-razboiul-electronic/

 

Radar technology, the backbone of modern electronic warfare defense systems

Abstract

This article is an extension of a subchapter in the book „Electronic Warfare and Artificial Intelligence”. (Sfetcu 2024) Electronic warfare is a critical component of modern military strategy, involving a suite of technologies and methods used to manipulate the electromagnetic spectrum to detect, deceive, disrupt, or neutralize enemy equipment while protecting friendly assets. This essay highlights the critical importance of radar technology in electronic warfare, illustrating how it supports and enhances military capabilities in an ever-evolving threat environment. The interplay between technological advances and strategic requirements ensures that radar technology will remain a key area of defense research and development.

Keywords: electronic warfare, electromagnetic spectrum, radar, artificial intelligence, electronic support, electronic attack, electronic protection

Rezumat

Acest articol este o extensie a unui subcapitol din cartea ”Războiul electronic și inteligența artificială”. (Sfetcu 2024) Războiul electronic este o componentă critică a strategiei militare moderne, implicând o suită de tehnologii și metode utilizate pentru a manipula spectrul electromagnetic pentru a detecta, înșela, perturba sau neutraliza echipamentele inamice, protejând în același timp bunurile prietenoase. Acest eseu evidențiază importanța critică a tehnologiei radar în războiul electronic, ilustrând modul în care susține și îmbunătățește capacitățile militare într-un mediu de amenințare în continuă evoluție. Interacțiunea dintre progresele tehnologice și cerințele strategice asigură că tehnologia radar va rămâne un domeniu-cheie în cercetarea și dezvoltarea în domeniul apărării.

Cuvinte cheie: războiul electronic, spectrul electromagnetic, radar, inteligența artificială, suport electronic, atac electronic, protecția electronică

 

IT & C, Volumul 3, Numărul 4, Decembrie 2024, pp.
ISSN 2821 – 8469, ISSN – L 2821 – 8469,
URL: https://www.internetmobile.ro/tehnologia-radar-coloana-vertebrala-a-sistemelor-moderne-de-aparare-in-razboiul-electronic/
© 2024 Nicolae Sfetcu. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.

 

Tehnologia radar, coloana vertebrală a sistemelor moderne de apărare în războiul electronic

Ing. fiz. Nicolae SFETCU[1], MPhil

nicolae@sfetcu.com

[1] Cercetător – Academia Română – Comitetul Român de Istoria și Filosofia Științei și Tehnicii (CRIFST), Divizia de Istoria Științei (DIS), ORCID: 0000-0002-0162-9973

 

Introducere

Războiul electronic (EW) este o componentă critică a strategiei militare moderne, implicând o suită de tehnologii și metode utilizate pentru a manipula spectrul electromagnetic pentru a detecta, înșela, perturba sau neutraliza echipamentele inamice, protejând în același timp bunurile prietenoase. Sfera de aplicare a războiului electronic se extinde pe trei domenii principale: suport electronic (ES), atac electronic (EA) și protecție electronică (EP).

Războiul electronic își are rădăcinile în tehnologiile radio și radar timpurii. În timpul Primul Război Mondial și al Doilea Război Mondial, EW a implicat în primul rând bruiaj radio și decepție radar. În 1939, chiar înainte de declanșarea celui de-al Doilea Război Mondial, .o primă  misiune ELINT a fost efectuată de dirijabilul german Graf Zeppelin de-a lungul coastei de est a Marii Britanii[1].

În al Doilea Război Mondial, Aliații au apelat la EW în „Bătălia Grinzilor” [10], folosind radarele de navigație pentru a dirija bombardierele, adversarii încercând să învingă acele radare de navigație[2]. Pleava” a fost folosită de Royal Air Force (nume de cod Window) în timpul celui de-al Doilea Război Mondial pentru a învinge sistemele radar de urmărire[3].

Evoluțiile Războiului Rece au inclus rachete anti-radiații concepute pentru a se concentra pe transmițătoarele radar inamice[4].

În timpul războiului din Coreea (1950—1953) sub comanda generalului Mac Arthur, SUA au desfășurat 100 de avioane bombardiere grele B-29 Superfortress în teatrul de război. Nord-coreenii au instalat, radare de avertizare timpurie și artilerie antiaeriană (AAA) controlată de radar, astfel încât pierderile aeronavelor au devenit inacceptabile[5].

În Primul Război din Golf (Operațiunea DESERT STORM) din 1991, luptătorii stealth s-au aventurat în spațiul aerian inamic lansând momeli pentru a declanșa radarul inamic în acțiune; unele purtând rachete anti-radiații care s-au activat instantaneu pe măsură ce radarele au apărut[6].

În primele zile ale invaziei rusești a Ucrainei din 2022, EW rusesc a perturbat radarele și comunicațiile adverse, perturbând sistemele de apărare aeriană de la sol dar și propriile lor comunicații[7]. Capacitatea rusă de a perturba semnalele GPS este creditată cu reducerea succesului utilizării ucrainene a bombelor HIMARS și JDAM[8]. Potrivit unui raport al Royal United Services Institute din 19 mai 2023, Ucraina pierduse aproximativ 10.000 de drone pe lună din cauza războiului electronic rusesc[9].

În domeniul războiului electronic, tehnologia radar joacă un rol crucial în formarea deciziilor strategice și tactice pe câmpul de luptă. Evoluția sistemelor radar a fost paralelă cu progresele în tehnicile de război electronic, în care atât măsurile ofensive, cât și cele defensive sunt profund împletite cu capacitățile radar.

Acest eseu evidențiază importanța critică a tehnologiei radar în războiul electronic, ilustrând modul în care susține și îmbunătățește capacitățile militare într-un mediu de amenințare în continuă evoluție. Interacțiunea dintre progresele tehnologice și cerințele strategice asigură că tehnologia radar va rămâne un domeniu-cheie în cercetarea și dezvoltarea în domeniul apărării.

Componentele războiului electronic

Suport electronic (ES)

Suportul electronic implică identificarea, interceptarea și localizarea semnalelor electromagnetice pentru a crea o conștientizare a mediului operațional.

Suportul pentru războiul electronic(ES), prin măsurile de asistență electronică (ESM), implică colectarea și analiza semnalelor electromagnetice emise de adversari pentru a detecta, intercepta, identifica, și/sau localiza sursele de energie electromagnetică radiată.

Măsurile de suport electronic (ESM) măsoară parametrii semnalului radar de intrare în intervalul de frecvență de funcționare: lățimea impulsului, frecvența de repetare a impulsurilor, puterea semnalului, ora de sosire, direcția de sosire, etc.[10], fiind format din: antene, receptoare, procesor de semnal, computer cu bibliotecă de emițători și unitate de afișare[11]. Receptorul ESM are cea mai mare influență asupra caracteristicilor sistemului ESM[12][13].

Radare de suport electronic: Radare electronice de inteligență (ELINT) care culeg informații despre semnalele radar ale inamicului, inclusiv frecvența, intervalul de repetare a pulsului (PRI) și alte caracteristici, și radare de inteligență de semnal (SIGINT) care interceptează și analizează semnale electronice în scopuri de informații.

Atacul electronic (EA)

Atacul electronic se referă la utilizarea energiei electromagnetice, a energiei dirijate sau a armelor anti-radiații pentru a ataca personalul, instalațiile sau echipamentele cu intenția de a degrada, neutraliza sau distruge capacitatea de luptă a inamicului.

Bruiajul deceptiv produce poziții și viteze false ale țintei prin pseudo-semnale, prin tehnici manipulative, sau imitative (introducerea de radiații EM în canalele inamice care imită propria lor emisie se numește decepție imitativă)[14]. Tehnicile manipulative modifică radiațiile electromagnetice prietenoase pentru a păcăli adversarul, prin generarea de ținte false, falsificarea gamei de frecvențe, a vitezei și unghiului[15][16]. Generarea țintelor false se folosește împotriva radarelor, avertizare timpurie și interceptarea controlului la sol, pentru a deruta operatorul de radar inamic[17] care nu va putea face distincția între ținte false și ținte reale[18]. Falsificarea razei, vitezei și unghiului exploatează vulnerabilitățile de monitorizare ale inamicului[19].

În cazul radarelor, strategiile ECM includ interferența radarului, modificările țintei și modificarea proprietăților electrice ale aerului, prin tehnici de interferență precum bruiajul și decepția[20]. Bruiajul radio sau blocajul comunicațiilor perturbă comunicațiile prin scăderea raportului semnal-zgomot.

Radare de atac electronic (EA): Radare de bruiaj care emit semnale pentru a interfera cu radarul inamic, sistemele de comunicație și de navigație, și radare de înșelăciune care trimit semnale false pentru a deruta radarele inamice, creând informații înșelătoare despre forțele prietene.

Protecție electronică (EP)

Protecția electronică implică măsuri luate pentru a asigura utilizarea prietenoasă a spectrului electromagnetic, în ciuda eforturilor inamicului de a-l perturba sau de a-l utiliza.

Protecția electronică (EP) este „acea diviziune a războiului electronic care implică mijloace pasive

Protecția electronică, cunoscută și sub numele de contra-contramăsuri electronice (ECCM), folosește tactici de război electronic (EWTR) și tehnici încorporate în proiectarea echipamentelor electronice pentru a anihila ECM inamice care implică tehnici de bruiaj și decepție.

Radare de protecție electronică (EP): Radare de contrablocare concepute pentru a funcționa eficient în prezența eforturilor de bruiaj ale inamicului, și radare cu probabilitate scăzută de interceptare (LPI) care utilizează tehnici pentru a evita detectarea prin măsurile de asistență electronică inamice (ESM).

Sisteme EW

Sistemele de război electronic se pot clasifica în:

Sisteme de comunicații și legături de date: sisteme de comunicații securizate (criptarea comunicațiilor pentru a preveni interceptarea) și sisteme de legătură de date (facilitarea schimbului securizat de date între platforme și sisteme).

Sisteme de război cibernetic: pentru apărarea cibernetică (protejează sistemele electronice de atacuri cibernetice), și atacuri cibernetice (perturbă sau distruge sistemele informaționale inamice prin mijloace cibernetice).

Sisteme fără pilot: drone și UAV-uri (echipate cu încărcături utile EW pentru bruiaj, interceptare și recunoaștere) și capcane (imitații ale semnăturilor platformelor mai mari pentru a induce în eroare senzorii și armele inamice).

Platforme terestre și aeriene: avertizare timpurie și control aeropurtat (AEW&C – aeronave echipate cu radar și sisteme de comunicații pentru supraveghere și control) și sisteme EW la sol (sisteme mobile sau staționare pentru bruiaj, interceptare și protecție).

Sisteme EW din spațiu: sateliți de recunoaștere (colectează informații electronice din spațiu) și sateliți de comunicații (furnizează canale de comunicare sigure și rezistente).

Sisteme EW integrate: sisteme multifuncționale (combină diferite capacități EW într-o singură platformă pentru operațiuni cuprinzătoare de război electronic)

Aceste sisteme funcționează în comun pentru a câștiga și a menține controlul asupra spectrului electromagnetic, asigurând eficacitatea operațiunilor militare în timp ce refuză aceleași capacități adversarilor.

O configurație tipică pentru un sistem EW depinde de aplicația particulară, dar în general include următoarele elemente[21]:

Controlul sistemului: poate fi realizat cu un singur computer (control centralizat) sau mai multe computere.

Antene: folosite pentru a extrage energia electromagnetică (EM) din mediul de propagare, sau pentru conversia energiei electrice în energie electromagnetică care poate fi propagată prin atmosferă.

Antenele convertesc semnalele electrice în unde EM care se propagă și invers, convertesc undele EM care se propagă în semnale electrice. De obicei, antenele pentru EW trebuie să fie în bandă largă, și prezintă aceleași caracteristici, indiferent dacă sunt utilizate pentru transmitere sau recepție. Cele mai importante caracteristici ale antenelor sunt răspunsul în frecvență (determină lățimea de bandă ), direcționalitatea (determină modul în care o antenă concentrează energia în anumite direcții) și caracteristicile de impedanță (să se potrivească cu cea a antenei). Cele mai populare tipuri de antene utilizate pentru EW în gamele de frecvență inferioare sunt dipolul, monopolul și log periodic. Pe măsură ce frecvențele de interes cresc, sunt folosite alte tipuri de antene.

Distribuția semnalului: se realizează în mod normal la ieșirea antenelor și înaintea receptorilor.

Receptor de căutare: caută în spectrul de frecvență semnale de interes.

Receptorul conectat: pentru analiza pe termen relativ lung a semnalelor detectate prin alte mijloace.

Receptoarele pentru interceptarea semnalelor de comunicație depind de tipul de semnal care urmează să fie interceptat. Pentru semnalele în bandă îngustă, cel mai popular tip de receptor a fost superhetrodina. Acolo unde frecvența instantanee de funcționare a emițătorului este necunoscută, sunt necesare receptoare de bandă largă. Funcția fundamentală a unui receptor este de a converti un semnal de la antenă într-unul care se poate utiliza, de obicei demodulat, prin conversie și demodulare.

Procesarea semnalului: detectarea prezenței energiei la o anumită frecvență și într-o lățime de bandă specificată, determinarea modulației unui semnal și măsurarea vitezei de transmisie a unui semnal de comunicație digitală.

Procesarea semnalului de căutare a direcției: localizarea sursei de emisie a semnalelor de comunicație, de obicei prin triangulare.

Procesarea semnalelor în EW implică procesarea semnalelor pentru a extrage informații din ele.

Geolocalizarea (fixarea poziției): determinarea locației unei ținte emitente, pe baza unor parametri temporali asociați cu semnalul de intrare.

Ca metode se folosesc ora de sosire și/sau diferența de frecvență de sosire sau efectul Doppler diferențial, cu doi sau mai mulți senzori prin triangulație.

Excitator: un amplificator de mare putere, filtre și o antenă,. în esență un generator de semnal RF cu capacitatea de a modula semnalele generate.

Amplificator de putere: amplifică semnalul de la excitator.

Excitatoarele și amplificatoarele de putere sunt incluse într-un sistem EW atunci când se apelează la EA. Semnalele generate astfel interferează cu comunicațiile adversarului. De cele mai multe ori este necesar să se injecteze mai multă energie decât cea a emițătorului vizat. Excitatorul generează semnalul care este apoi mărit în putere de amplificatorul de putere.

Filtre: limitează energia în afara canalului (nedorită) pe care o emite sistemul.

Comunicații: subsistemul de comunicații poate fi compus din mai multe tipuri de capabilități, pentru comanda și controlul sistemului.

Radare: concepute pentru a furniza avertizare de atac, informații despre implicarea țintei, și pentru a furniza informații suficient de precise privind raza de acțiune, azimutul și altitudinea țintei.

Tehnologia radar

Sistemele radar detectează, localizează și urmăresc obiecte prin emiterea de unde radio și analizând ecourile returnate de la acestea. În contextul aplicațiilor militare, radarele sunt esențiale pentru supraveghere, achiziție de ținte și evaluarea amenințărilor. Componentele cheie ale sistemelor radar includ transmițătorul, receptorul, antena și unitatea de procesare, fiecare parte integrantă a performanței generale a sistemului în scenariile EW.

„RADAR” este un acronim pentru RAdio Detection And Ranging, bazat pe reflexia undelor electromagnetice. În 1903, reflexia undelor radio a fost folosită în Germania pentru a demonstra detecția navelor pe mare. Dezvoltarea practică a radarului cu puls a început în anii 1930, în principal în Statele Unite, Marea Britanie și Germania. Radarul poate „vedea” mai departe decât ochiul uman și poate evalua cu mai multă precizie distanța sau distanța unui obiect. Sistemele radar trebuie să utilizeze discriminatori țintă pentru a izola returul dorit de țintă: intervalul, viteza și unghiul. Prezența unui ecou indică detectarea țintei[22].

Un radar transmite și primește radiații electromagnetice, denumite radiații de radiofrecvență (RF). Frecvența RF transmisă afectează capacitatea unui sistem radar de a analiza ținta, capacitatea antenei de transmisie de a focaliza energia RF într-un fascicul îngust, și propagarea semnalului prin atmosferă.

Fiecare radar produce un semnal de radiofrecvență (RF) cu caracteristici specifice care îl diferențiază de toate celelalte semnale și îi definesc capacitățile și limitările. Lățimea pulsului (durata pulsului), timpul de recurență a pulsului (interval de repetare a pulsului), frecvența de repetare a pulsului și puterea sunt caracteristicile semnalului radar determinate de transmițătorul radar, oferind o semnătură unică pentru a identifica un anumit semnal radar. Timpul de ascultare, timpul de odihnă și timpul de recuperare sunt caracteristicile receptorului radar. Componentele individuale ale unui radar determină capacitățile și limitările unui anumit sistem radar. Caracteristicile acestor componente determină și contramăsurile care vor fi eficiente împotriva unui anumit sistem radar.

Scopul principal al sistemelor radar este de a determina intervalul, azimutul, elevația sau viteza unei ținte. Capacitatea unui sistem radar de a determina și rezolva acești parametri depinde de caracteristicile semnalului radar transmis.

Funcția antenei în timpul transmisiei este de a concentra energia radar de la transmițător într-un fascicul modelat spre direcția dorită. În timpul recepției sau a timpului de ascultare, funcția antenei este de a colecta energia radar care revine prin ecou, transmițând aceste semnale la receptor. Metoda folosită de antenele radar pentru eșantionarea mediului este o caracteristică critică de proiectare a sistemului radar. Orizontul radar, mascarea directă a terenului și mascarea indirectă a terenului sunt limitări pentru toate scanările radar.

Un radar de urmărire a țintei (TTR) furnizează informațiile necesare pentru a ghida o rachetă sau pentru a ținti cu o armă pentru a distruge o țintă. Un TTR obișnuit are bucle de urmărire individuale pentru a urmări o țintă în rază, azimut, altitudine sau viteză. Antena TTR este îndreptată către o singură țintă. Odată ce o țintă a fost identificată, etapa finală a angajării este de a ghida o rachetă sau proiectil pentru a distruge ținta.

Bruiajul radar este radiația sau re-radierea intenționată a semnalelor de radiofrecvență pentru a interfera cu funcționarea unui radar prin saturarea receptorului acestuia cu ținte false sau informații false despre ținte. Cele mai utilizate tipuri de bruiaj radar sunt zgomotul și decepția. Raportul semnal-zgomot al radarului de victimă determină vulnerabilitatea receptorului radar la bruiaj, în timp ce raportul bruiaj-semnal este un indiciu al capacității sistemului de bruiaj de a bloca eficient radarul victimei.

Radarele joacă un rol crucial în războiul electronic (EW), oferind atât capacități ofensive, cât și defensive. Iată câteva tipuri cheie și utilizări ale radarelor în războiul electronic:

Tipuri de radare în războiul electronic

Radar de supraveghere: Avertizare și control timpuriu aeropurtat (AEW&C), folosit pentru detectarea și urmărirea aeronavelor, navelor și altor vehicule la distanțe mari, și radare de supraveghere la sol, desfășurate la sol pentru a monitoriza activitățile aeriene și terestre, oferind avertizare timpurie și conștientizare a situației.

Radar de control al focului: Radare de urmărire a țintei care furnizează informații precise de urmărire pentru ghidarea armelor, cum ar fi rachetele și artileria, și radare de ghidare a rachetelor utilizate pentru a ghida rachetele sol-aer sau aer-aer către țintele lor.

Principalele utilizări ale radarelor în războiul electronic:

Detectare și urmărire: Detectarea aeronavelor, navelor și vehiculelor terestre inamice, și urmărirea mișcării și a locației acestor ținte pentru a oferi cunoaștere a situației.

Achiziția și implicarea țintei: Obținerea de informații precise privind ținta pentru sistemele de arme, și ghidarea rachetelor și a altor muniții către țintele lor cu precizie ridicată.

Colectarea de informații: Colectarea și analizarea semnalelor radar și de comunicație pentru informații strategice și tactice, și monitorizarea operațiunilor radar inamice și identificarea potențialelor amenințări.

Bruiaj și înșelăciune: Perturbarea radarului și a sistemelor de comunicații inamice pentru a le degrada capacitățile operaționale, și Crearea de ținte false și informații înșelătoare pentru a deruta și a induce în eroare inamicul.

Contramăsuri: Implementarea tehnicilor pentru a proteja radarele prietenoase împotriva bruiajului inamic și a atacurilor electronice, și asigurarea fiabilității și eficacității operațiunilor radar în medii contestate.

 Aplicații ale radarului în războiul electronic

Supraveghere și recunoaștere: radarele oferă capabilități de supraveghere pe orice vreme, zi și noapte. Radarele de înaltă rezoluție sunt desfășurate pentru a monitoriza mișcările inamicului și pentru a colecta informații, jucând un rol strategic în pregătirile de dinainte de conflict.

Direcționare și îndrumare: sistemele radar sunt folosite pentru a ghida armele și rachetele de precizie. Tehnicile active de orientare a radarului permit rachetelor să se blocheze și să urmărească ținte în mod autonom, o capacitate crucială în medii ostile.

Evaluarea amenințărilor și contramăsuri: radarele moderne analizează spectrul electromagnetic pentru a clasifica și prioritiza amenințările. Aceasta presupune detectarea emisiilor radarului inamic și implementarea unor contramăsuri precum bruiaj sau înșelăciune pentru a perturba operațiunile acestora.

Provocări în tehnologia radar în cadrul războiului electronic

Tehnologie Stealth: Dezvoltarea tehnologiei stealth în aeronave și nave pune provocări semnificative pentru sistemele radar. Design-urile și materialele ascunse absorb sau deviază undele radar, ceea ce face dificilă detectarea.

Bruiaj și înșelăciune: Adversarii folosesc tehnici de bruiaj pentru a perturba operațiunile radar prin emiterea de semnale de frecvență radio care pot deruta sau supraîncărca receptoarele radar. Tacticile de înșelăciune, cum ar fi folosirea momelilor, complică și mai mult capacitatea radarului de a identifica și urmări cu precizie țintele.

Progrese tehnologice rapide: Ritmul schimbărilor tehnologice necesită actualizări și adaptări continue în sistemele radar pentru a gestiona noile amenințări și tehnici de contramăsuri.

Tehnologii radar avansate în EW:

Radare active cu scanare electronică (AESA): oferă o direcție mai rapidă a fasciculului și o capacitate mai mare de urmărire a țintei, și o rezistență îmbunătățită la bruiaj și o fiabilitate mai mare.

Radare cu locație coerentă pasivă (PCL): utilizează surse de transmisie necooperante (cum ar fi semnalele de difuzare comerciale) pentru detectarea țintei; sunt dificil de detectat și blocat de către inamic.

Radare multistatice: utilizează mai multe transmițătoare și receptoare răspândite pe o zonă largă, și îmbunătățesc detectarea țintei și acuratețea urmăririi, reducând în același timp vulnerabilitatea la bruiaj.

Radare de detectare ascunse: capabile să detecteze avioane ascunse și ținte puțin observabile, utilizează benzi de frecvență joasă și tehnici avansate de procesare a semnalului.

Aceste radare sunt parte integrantă a strategiilor moderne de război electronic, permițând forțelor să detecteze, să înșele și să învingă sistemele adverse, protejându-le în același timp pe ale lor.

Evoluție și direcții viitoare

Progresele în tehnologia radar sunt strâns legate de evoluțiile procesării digitale, științei materialelor și inteligenței artificiale. Radarele cu matrice în fază, cu capacitatea lor de a direcționa fasciculul electronic fără a muta componentele fizice, oferă o viteză și o precizie mai mare, esențiale pentru operațiunile EW. În plus, integrarea algoritmilor de învățare automată ajută la clasificarea automată a țintelor și amenințărilor, îmbunătățind procesele de luare a deciziilor în situații de luptă în timp real.

În operațiunile EMS, obiectivul este de a răspunde imediat. Cu inteligența artificială (AI) și învățarea automată (ML), computerul decide următorii pași. Datorită comportamentului imprevizibil al sistemului, chiar și persoanele responsabile de sistem nu pot prezice comportamentul său exact. Dacă un radar încearcă să urmărească un jet, de exemplu, contramăsurile adversarului îl pot face să eșueze. Folosind ML, acel radar va încerca în mod repetat noi abordări pentru a obține succesul[23].

Aplicații specifice

ECM: ECM sunt dependente de timp și de locație, putând fi asistate de o gamă largă de instrumente ML/DL, precum utilizarea rețelelor neuronale convolutive (CNN) pentru clasificarea semnalului de bruiaj radar[24], detectarea și clasificarea blocajului de baraj pentru radarul cu deschidere sintetică (SAR) bazată pe CNN[25], predicția tehnicii de bruiaj adecvate pentru un semnal de amenințare recepționat folosind învățarea profundă[26], sau ”pleava” în EW[27].

ECCM: Utilizarea radarului cu frecvență agilă (FA) în modelele anti-bruiaj radar cu un algoritm de salt de frecvență anti-bruiaj bazat pe întărire pentru radar cognitiv[28], sau utilizarea de detectoare pentru a menține o probabilitate ridicată de detectare și o rată scăzută a alarmelor false[29].

Tehnici care folosesc inteligența artificială

Tehnicile IA utilizate în mod obișnuit sunt învățarea automată (ML), sistemele fuzzy, și algoritmul genetic.

Rețeaua neuronală artificială (ANN) poate fi antrenată pentru recunoașterea modelelor, clasificarea, gruparea datelor etc., prin învățare supravegheată sau nesupravegheată. Se folosește, printre altele, pentru identificarea și clasificarea semnalului emițătorului, recunoașterea parametrului de scanare a antenei radar, selectarea adecvată a stilului de bruiaj, etc.[30]

Rețeaua neuronală profundă (DNN), are o expresie mai bună a caracteristicilor față de ANN, și o capacitate de a se potrivi cartografierii complexe. Există trei modele DNN utilizate în mod obișnuit: Deep Belief Networks (DBN), Stacked Autoencoder (SAE), și Deep Convolution Neural Networks (DCNN). Se folosește în sistemele EW pentru procesarea semnalului radar, identificarea și clasificarea emițătorilor, dezvoltarea unor metode îmbunătățite anti-bruiaj, detecția bruiajului și a caracteristicilor acestuia etc.[31]

Sisteme fuzzy: Logica fuzzy permite urmărirea variațiile finite ale intrărilor, sistemele fuzzy încercând să semene cu metodologia umană de luare a deciziilor[32], dar fără capacitatea de învățare sau memorie. Se folosește în combinație cu alte tehnici pentru a forma sisteme hibride pentru aplicații radar și de procesare a semnalelor conexe[33].

Algoritmul genetic: Încearcă să reproducă procesele de evoluție care apar în mod natural, o tehnică iterativă bazată pe probabilitate. Este folosit în probleme de optimizare, în combinație ANN și DNN pentru mai multe medii dinamice[34], inclusiv procesarea semnalului radar[35].

Tendințe în evoluția EW

Diferiți algoritmi de inteligență artificială pot fi utilizați prin tehnici de neuro-computing și de învățare profundă[36]:

  • O metodă de recunoaștere a modulării impulsului semnalului radar pe baza codificatorului automat de eliminare a zgomotului convoluțional și rețeaua neurală convoluțională profundă (DCNN) este discutat de Qu et al.[37].
  • Un sistem automat de clasificare a modulației pentru semnalele radar bazat pe algoritmul hibrid bazat pe AI, inclusiv bayesian naiv și SVM, este prezentat de Wang et al.[38].
  • O metodă bazată pe învățare profundă este propusă de Elbir, Mishra, și Eldar[39] pentru a selecta antenele într-un scenariu cognitiv radar.
  • MASINT pentru a analiza semnăturile radarului țintă[40] ajută la detecția, urmărirea, identificarea și descrierea caracteristicilor distinctive ale emițătorilor.
  • Un sistem de recunoaștere a semnalului radar bazat pe rețeaua de factorizare a matricei nenegative și învățarea ansamblului este prezentat de Gao et al.[41].
  • O metodă de identificare și clasificare a semnalului emițătorului radar bazată pe clustering și rețelele neuronale probabilistice este discutată de Liao, Li, și Yang[42].
  • Petrov, Jordanov, și Roe[43] prezintă metoda bazată pe ANN pentru recunoașterea în timp util și fiabilă a emițătorilor de semnal radar.
  • Un sistem automat de recunoaștere a formei de undă radar pentru detectarea, urmărirea și localizarea radarelor cu probabilitate scăzută de interceptare este discutat de Zhang et al.[44].
  • Un alt sistem de clasificare a semnalelor radar bazat pe rețele neuronale este prezentat de Shao, Chen, și Wei[45].
  • O metodă care combină graficul de vizibilitate cu învățarea automată pentru recunoașterea modelului de scanare a antenei radar este discutată de Wan et al.[46].
  • Un alt algoritm pentru estimarea perioadei de scanare a antenei radar (ASP) și recunoașterea tipului de scanare a antenei radar în mediul EW este prezentat de Barshan și Eravci[47].

EW cognitiv

Conceptele radio cognitive există cel puțin din 1999, când Joe Mitola III[48] a introdus termenul, iar ideea de radar cognitiv există din cel puțin 2006[49].

Reprogramarea digitală a modulării frecvenței și a formei de undă în tehnologia radar este o tendință în evoluție. Acest lucru va face emițătorii adversari mai greu de clasificat și identificat[50]. Sistemele cognitive EW sunt sisteme de învățare și gândire în timp real. Implementarea lor necesită microprocesoare cu putere redusă și instrumente software capabile să direcționeze sistemele AI/ML în procesarea și recunoașterea semnalului și să ghideze procesele de gândire ale sistemelor în conformitate cu algoritmii construiți pentru analiza și procesarea semnalului[51]. Odată cu extinderea EW și radio. -instrumentele și sistemele de spectru de frecvență, sistemele cognitive EW vor fi marginea tactică în păstrarea superiorității spectrului electromagnetic[52].

Concluzie

Sistemele folosite în războiul electronic sunt complexe și multifațetate, concepute pentru a asigura avantaje în spectrul electromagnetic care pot fi critice în lupta modernă. Pe măsură ce tehnologia evoluează, la fel evoluează și sofisticarea acestor sisteme, conducând la evoluții continue în tacticile și echipamentele de război electronic. Interacțiunea componentelor ES, EA și EP asigură o abordare cuprinzătoare a controlului mediului electromagnetic, esențială pentru atingerea și menținerea superiorității tehnologice în operațiunile militare contemporane.

Sistemele EW bazate pe inteligență artificială joacă un rol foarte important în adaptarea rapidă la mediul electromagnetic în război, crescând conștientizarea situației și fiabilitatea deciziilor. Un sistem EW asistat de inteligența artificială poate fi eficient în identificarea emițătorilor radar ostili, astfel încât să determine gradul de letalitate a amenințării, putându-se formula astfel o strategie adecvată de contracarare pentru a anula amenințarea ostilă. Informațiile adunate pot fi folosite pentru a elabora o bibliotecă de amenințări pentru un eventual ordin electronic de luptă (EOB). Astfel, inteligența artificială poate oferi planificatorilor instrumente fiabile pentru elaborarea planurilor de război.

Tehnologia radar rămâne în fruntea războiului electronic, oferind capabilități esențiale care modelează rezultatele angajamentelor militare. Pe măsură ce adversarii își îmbunătățesc capacitățile de ascuns și atac electronic, rolul radarului devine mai complex și mai vital. Cercetarea și dezvoltarea în curs de desfășurare în tehnologia radar promit nu numai să contracareze provocările actuale, ci și să redefinească peisajul viitor al războiului electronic.

Bibliografie

  • * * *. 2000. “Electronic Warfare Fundamentals.” https://falcon.blu3wolf.com/Docs/Electronic-Warfare-Fundamentals.pdf.
  • Adams, Charlotte. 2018. “Cognitive Electronic Warfare: Radio Frequency Spectrum Meets Machine Learning.” 2018. //interactive.aviationtoday.com/avionicsmagazine/august-september-2018/cognitive-electronic-warfare-radio-frequency-spectrum-meets-machine-learning/.
  • Akhtar, Jabran, and Karl Erik Olsen. 2018. “A Neural Network Target Detector with Partial CA-CFAR Supervised Training.” In 2018 International Conference on Radar (RADAR), 1–6. https://doi.org/10.1109/RADAR.2018.8557276.
  • Barshan, Billur, and Bahaeddin Eravci. 2012. “Automatic Radar Antenna Scan Type Recognition in Electronic Warfare.” IEEE Transactions on Aerospace and Electronic Systems 48 (4): 2908–31. https://doi.org/10.1109/TAES.2012.6324669.
  • Bronk, Justin, Nick Reynolds, and Jack Watling. 2022. “The Russian Air War and Ukrainian Requirements for Air Defence.” https://static.rusi.org/SR-Russian-Air-War-Ukraine-web-final.pdf.
  • Browne, J. P. R., and Michael T. Thurbon. 1998. Electronic Warfare. Brassey’s.
  • Browne, Jack. 2017. “Cognitive EW Provides Computer-Powered Protection.” Microwaves & RF. May 10, 2017. https://www.mwrf.com/markets/defense/article/21848321/cognitive-ew-provides-computerpowered-protection.
  • Brunt, Leroy B. Van. 1978. Applied ECM. EW Engineering.
  • Butt, Faran, and Madiha Jalil. 2013. An Overview of Electronic Warfare in Radar Systems. https://doi.org/10.1109/TAEECE.2013.6557273.
  • Campen, Alan D. 1992. The First Information War: The Story of Communications, Computers, and Intelligence Systems in the Persian Gulf War. AFCEA International Press.
  • DOD. 2020. “DoD Data Strategy.” https://media.defense.gov/2020/Oct/08/2002514180/-1/-1/0/DOD-DATA-STRATEGY.PDF.
  • Dudczyk, Janusz, and A. Kawalec. 2013. “Specific Emitter Identification Based on Graphical Representation of the Distribution of Radar Signal Parameters.” Jokull 63 (November):408–16.
  • EASA. 2020. “Concepts of Design Assurance for Neural Networks (CoDANN).” https://www.easa.europa.eu/sites/default/files/dfu/EASA-DDLN-Concepts-of-Design-Assurance-for-Neural-Networks-CoDANN.pdf.
  • Elbir, Ahmet M., Kumar Vijay Mishra, and Yonina C. Eldar. 2019. “Cognitive Radar Antenna Selection via Deep Learning.” arXiv. https://doi.org/10.48550/arXiv.1802.09736.
  • Friedrich, Nancy. 2020. “AI and Machine Learning Redefine the EW Landscape | 2020-12-08 | Microwave Journal.” 2020. https://www.microwavejournal.com/articles/35107-ai-and-machine-learning-redefine-the-ew-landscape.
  • Gannon, Brian P. 2023. “Implement AI in Electromagnetic Spectrum Operations.” U.S. Naval Institute. August 1, 2023. https://www.usni.org/magazines/proceedings/2023/august/implement-ai-electromagnetic-spectrum-operations.
  • Gao, Jingpeng, Yi Lu, Junwei Qi, and Liangxi Shen. 2019. “A Radar Signal Recognition System Based on Non-Negative Matrix Factorization Network and Improved Artificial Bee Colony Algorithm.” IEEE Access 7:117612–26. https://doi.org/10.1109/ACCESS.2019.2936669.
  • Hamilton, Serena, A.J. Jakeman, and John Norton. 2008. “Artificial Intelligence Techniques: An Introduction to Their Use for Modelling Environmental Systems.” Mathematics and Computers in Simulation 78 (July):379–400. https://doi.org/10.1016/j.matcom.2008.01.028.
  • Jankowicz, Mia. 2023. “Ukraine Is Losing 10,000 Drones a Month to Russian Electronic-Warfare Systems That Send Fake Signals and Screw with Their Navigation, Researchers Say.” Business Insider. 2023. https://www.businessinsider.com/ukraine-losing-10000-drones-month-russia-electronic-warfare-rusi-report-2023-5.
  • Junfei, Yu, Li Jingwen, Sun Bing, and Jiang Yuming. 2018. “Barrage Jamming Detection and Classification Based on Convolutional Neural Network for Synthetic Aperture Radar.” In IGARSS 2018 – 2018 IEEE International Geoscience and Remote Sensing Symposium, 4583–86. https://doi.org/10.1109/IGARSS.2018.8519373.
  • Kang, Li, Jiu Bo, Liu Hongwei, and Liang Siyuan. 2018. “Reinforcement Learning Based Anti-Jamming Frequency Hopping Strategies Design for Cognitive Radar.” In 2018 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC), 1–5. https://doi.org/10.1109/ICSPCC.2018.8567751.
  • Kucukozyigit, Ali. 2006. “Electronic Warfare (EW) Historical Perspectives and Its Relationship to Information Operations (IO) – Considerations for Turkey.”
  • Lee, Gyeong-Hoon, Jeil Jo, and Cheong Hee Park. 2020. “Jamming Prediction for Radar Signals Using Machine Learning Methods.” Security and Communication Networks 2020 (January):e2151570. https://doi.org/10.1155/2020/2151570.
  • Li, Xueqiong, Zhitao Huang, Fenghua Wang, Xiang Wanga, and Tianrui Liu. 2018. “Toward Convolutional Neural Networks on Pulse Repetition Interval Modulation Recognition.” IEEE Communications Letters PP (August):1–1. https://doi.org/10.1109/LCOMM.2018.2864725.
  • Liao, Xiaofeng, Bo Li, and Bo Yang. 2018. “A Novel Classification and Identification Scheme of Emitter Signals Based on Ward’s Clustering and Probabilistic Neural Networks with Correlation Analysis.” Computational Intelligence and Neuroscience 2018 (November):e1458962. https://doi.org/10.1155/2018/1458962.
  • Liu, Yemin, Shiqi Xing, Y. Li, Dong Hou, and Wang Xuesong. 2017. “Jamming Recognition Method Based on the Polarization Scattering Characteristics of Chaff Clouds.” IET Radar, Sonar & Navigation 11 (August). https://doi.org/10.1049/iet-rsn.2017.0121.
  • Martino, Andrea De. 2012. Introduction to Modern EW Systems. Artech House.
  • McArthur, Charles W. 1990. Operations Analysis in the United States Army Eighth Air Force in World War II. American Mathematical Soc.
  • Mizokami, Kyle. 2023. “Why Ukraine’s GPS-Guided Bombs Keep Missing Their Targets.” Popular Mechanics. April 20, 2023. https://www.popularmechanics.com/military/weapons/a43591694/russian-jamming-gps-guided-bombs/.
  • Petrov, Nedyalko, Ivan Jordanov, and Jon Roe. 2013. “Radar Emitter Signals Recognition and Classification with Feedforward Networks.” Procedia Computer Science, 17th International Conference in Knowledge Based and Intelligent Information and Engineering Systems – KES2013, 22 (January):1192–1200. https://doi.org/10.1016/j.procs.2013.09.206.
  • Poisel, Richard. 2008. Introduction to Communication Electronic Warfare Systems. Artech House.
  • Polmar, Norman. 1979. “The U. S. Navy: Electronic Warfare (Part 2).” U.S. Naval Institute. November 1, 1979. https://www.usni.org/magazines/proceedings/1979/november/u-s-navy-electronic-warfare-part-2.
  • Qiang, Xing, Zhu Wei-gang, and Bo Yuan. 2018. “Jamming Style Selection for Small Sample Radar Jamming Rule Base.” 2018 IEEE International Conference on Signal Processing, Communications and Computing (ICSPCC), September, 1–5. https://doi.org/10.1109/ICSPCC.2018.8567613.
  • Qu, Zhiyu, Wenyang Wang, Changbo Hou, and Chenfan Hou. 2019. “Radar Signal Intra-Pulse Modulation Recognition Based on Convolutional Denoising Autoencoder and Deep Convolutional Neural Network.” IEEE Access 7:112339–47. https://doi.org/10.1109/ACCESS.2019.2935247.
  • Rahman, H. 2019. Introduction to Electronic Defense Systems. Boca Raton, FL, USA: CRC Press.
  • Rambo. 2009. “Information Warfare: History of Electronic Warfare.” INFORMATION WARFARE (blog). December 7, 2009. https://ew30.blogspot.com/2009/12/such-is-reliance-on-electromagnetic-em.html.
  • Sfetcu, Nicolae. 2024. “Războiul electronic și inteligența artificială.” MultiMedia. January 8, 2024. https://www.telework.ro/ro/e-books/razboiul-electronic-si-inteligenta-artificiala/.
  • Shankar, M., and B. Mohan. 2013. “Recent Advances in Electronic Warfare-ESM Systems.” In . https://www.semanticscholar.org/paper/RECENT-ADVANCES-IN-ELECTRONIC-WARFARE-ESM-SYSTEMS-Shankar-Mohan/bf6e4c372514695dd167eebf6f9dfb78ca120f6a.
  • Shao, Guangqing, Yushi Chen, and Yinsheng Wei. 2020. “Convolutional Neural Network-Based Radar Jamming Signal Classification With Sufficient and Limited Samples.” IEEE Access 8:80588–98. https://doi.org/10.1109/ACCESS.2020.2990629.
  • Sharma, Purabi, Kandarpa Kumar Sarma, and Nikos E. Mastorakis. 2020. “Artificial Intelligence Aided Electronic Warfare Systems- Recent Trends and Evolving Applications.” IEEE Access 8:224761–80. https://doi.org/10.1109/ACCESS.2020.3044453.
  • Singh, Mohinder. 1988. “Electronic Warfare.” https://www.drdo.gov.in/sites/default/files/publcations-document/Electronic%20Warfare.pdf.
  • Waghray, Namrita, and P. M. Menghal. 2011. “Simulation of Radar Topology Networks to Evolve the Electronic Warfare Survivability Metrics.” 2011 3rd International Conference on Electronics Computer Technology, April, 355–59. https://doi.org/10.1109/ICECTECH.2011.5941622.
  • Wan, Tao, Xinying Fu, Kaili Jiang, Yuan Zhao, and Bin Tang. 2019. “Radar Antenna Scan Pattern Intelligent Recognition Using Visibility Graph.” IEEE Access 7:175628–41. https://doi.org/10.1109/ACCESS.2019.2957769.
  • Wang, Feng, Shanshan Huang, Hao Wang, and Chenlu Yang. 2018. “Automatic Modulation Classification Exploiting Hybrid Machine Learning Network.” Mathematical Problems in Engineering 2018 (December):e6152010. https://doi.org/10.1155/2018/6152010.
  • Wei, Dongxu, Shuning Zhang, Si Chen, Huichang Zhao, and Linzhi Zhu. 2019. “Research on Deception Jamming of Chaotic Composite Short-Range Detection System Based on Bispectral Analysis and Genetic Algorithm–Back Propagation.” International Journal of Distributed Sensor Networks 15 (5): 1550147719847444. https://doi.org/10.1177/1550147719847444.
  • Zhang, Ming, Ming Diao, Lipeng Gao, and Lutao Liu. 2017. “Neural Networks for Radar Waveform Recognition.” Symmetry 9 (5): 75. https://doi.org/10.3390/sym9050075.

Note

[1] (Kucukozyigit 2006)

[2] (Rambo 2009)

[3] (McArthur 1990)

[4] (Polmar 1979)

[5] (J. P. R. Browne and Thurbon 1998, 26)

[6] (Campen 1992, XIV)

[7] (Bronk, Reynolds, and Watling 2022)

[8] (Mizokami 2023)

[9] (Jankowicz 2023)

[10] (Li et al. 2018)

[11] (Shankar and Mohan 2013)

[12] (Martino 2012)

[13] (Sharma, Sarma, and Mastorakis 2020)

[14] (Singh 1988)

[15] (Martino 2012)

[16] (Butt and Jalil 2013)

[17] (Rahman 2019)

[18] (Brunt 1978)

[19] (Martino 2012)

[20] (Polmar 1979)

[21] (Poisel 2008)

[22] (* * * 2000)

[23] (Friedrich 2020)

[24] (Shao, Chen, and Wei 2020)

[25] (Junfei et al. 2018)

[26] (Lee, Jo, and Park 2020)

[27] (Liu et al. 2017)

[28] (Kang et al. 2018)

[29] (Akhtar and Olsen 2018)

[30] (Qiang, Wei-gang, and Yuan 2018)

[31] (Elbir, Mishra, and Eldar 2019)

[32] (Hamilton, Jakeman, and Norton 2008)

[33] (Waghray and Menghal 2011)

[34] (Wei et al. 2019)

[35] (Waghray and Menghal 2011)

[36] (Sharma, Sarma, and Mastorakis 2020)

[37] (Qu et al. 2019)

[38] (Wang et al. 2018)

[39] (Elbir, Mishra, and Eldar 2019)

[40] (Dudczyk and Kawalec 2013)

[41] (Gao et al. 2019)

[42] (Liao, Li, and Yang 2018)

[43] (Petrov, Jordanov, and Roe 2013)

[44] (Zhang et al. 2017)

[45] (Shao, Chen, and Wei 2020)

[46] (Wan et al. 2019)

[47] (Barshan and Eravci 2012)

[48] (EASA 2020)

[49] (DOD 2020)

[50] (Adams 2018)

[51] (J. Browne 2017)

[52] (Gannon 2023)

 

CC BY SA 4.0Articol cu Acces Deschis (Open Access) distribuit în conformitate cu termenii licenței de atribuire Creative Commons CC BY SA 4.0 (https://creativecommons.org/licenses/by-sa/4.0/).

Considerații de securitate în rețelele de telecomunicații 5G

Sfetcu, Nicolae (2024), Considerații de securitate în rețelele de telecomunicații 5G, IT & C, 3:4, DOI: 10.58679/IT27992, https://www.internetmobile.ro/consideratii-de-securitate-in-retelele-de-telecomunicatii-5g/

 

Security Considerations in 5G Telecommunications Networks

Abstract

The advent of 5G networks represents a revolutionary change in telecommunications, offering significantly improved data speeds, but its development also introduces new and complex security challenges. The integration of different technologies and the various use cases of 5G amplify the potential vulnerabilities, requiring a comprehensive approach to securing 5G networks. The 5G Core network function specifications were developed to remove known vulnerabilities in the existing network.

This essay explores the key security considerations in 5G telecommunications, examining the risks, challenges and safeguards required to ensure the integrity and reliability of these networks.

Keywords: 5G Core, 5G, vulnerabilities, security, telecommunications networks, network functions, 5G architecture

Rezumat

Apariția rețelelor 5G reprezintă o schimbare revoluționară în telecomunicații, oferind viteze semnificativ îmbunătățite ale datelor, dar dezvoltarea sa introduce și provocări noi și complexe de securitate. Integrarea diferitelor tehnologii și diversele cazuri de utilizare ale 5G amplifică potențialele vulnerabilități, necesitând o abordare cuprinzătoare pentru securizarea rețelelor 5G. Specificațiile funcțiilor de rețea 5G Core au fost dezvoltate pentru a elimina vulnerabilitățile cunoscute din rețeaua existentă.

Acest eseu explorează considerentele cheie de securitate în telecomunicațiile 5G, examinând riscurile, provocările și garanțiile necesare pentru a asigura integritatea și fiabilitatea acestor rețele.

Cuvinte cheie: 5G Core, 5G, vulnerabilități, securitate, rețele de telecomunicații, funcții de rețea, arhitectura 5G

 

IT & C, Volumul 3, Numărul 4, Decembrie 2024, pp.
ISSN 2821 – 8469, ISSN – L 2821 – 8469, DOI: 10.58679/IT27992
URL: https://www.internetmobile.ro/consideratii-de-securitate-in-retelele-de-telecomunicatii-5g/
© 2024 Nicolae Sfetcu. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.

 

Considerații de securitate în rețelele de telecomunicații 5G

Ing. fiz. Nicolae SFETCU[1], MPhil

nicolae@sfetcu.com

[1] Cercetător – Academia Română – Comitetul Român de Istoria și Filosofia Științei și Tehnicii (CRIFST), Divizia de Istoria Științei (DIS), ORCID: 0000-0002-0162-9973

 

Introducere

Apariția rețelelor 5G reprezintă o schimbare revoluționară în telecomunicații, oferind viteze semnificativ îmbunătățite ale datelor, latență ultra-scăzută și capacitatea de a conecta un număr mare de dispozitive simultan. Deoarece 5G promite să aducă plusvaloare tehnologiilor emergente, cum ar fi Internetul obiectelor (IoT), vehiculele autonome și orașele inteligente, dezvoltarea sa introduce, de asemenea, provocări noi și complexe de securitate. Integrarea diferitelor tehnologii și diversele cazuri de utilizare ale 5G amplifică potențialele vulnerabilități, necesitând o abordare cuprinzătoare pentru securizarea rețelelor 5G.

Specificațiile funcțiilor de rețea 5G Core au fost dezvoltate pentru a elimina vulnerabilitățile cunoscute din rețeaua existentă. (2)(3) Efortul este continuu; de exemplu, cea mai recentă versiune a specificației arhitecturii 5G (1) îmbunătățește și mai mult contracararea unei vulnerabilități cunoscute User Plane Integrity Protection, prin adăugarea de noi cerințe pentru UE pentru a suporta User Plane Integrity Protection la maximum.

Oricum, funcțiile de bază 5G se bazează pe o infrastructură subiacentă de hardware, software și procese care vin cu amenințările și vulnerabilitățile lor de securitate. Acest eseu explorează considerentele cheie de securitate în telecomunicațiile 5G, examinând riscurile, provocările și garanțiile necesare pentru a asigura integritatea și fiabilitatea acestor rețele.

Arhitectură bazată pe servicii

Funcțiile 5G Core sunt menite să fie compuse în mare parte din aplicații care rulează pe hardware de uz general care comunică prin interfețe de programare a aplicațiilor (API). (2)(3) Integritatea software-ului, în special din locațiile open-source și din lanțul general de aprovizionare a software-ului, este o zonă de vulnerabilitate. Deoarece serviciile pot fi create, distruse și comunicate între ele dinamic, sistemele trebuie autentificate corespunzător și comunicațiile protejate pentru a preveni executarea neautorizată a funcțiilor sau accesul la date (4).

Suprafață de atac crescută

Arhitectura rețelelor 5G diferă semnificativ de generațiile anterioare, în primul rând datorită proliferării dispozitivelor IoT și utilizării tehnologiilor de virtualizare și cloud computing. Această complexitate crescută extinde suprafața de atac, expunând mai multe puncte potențiale de intrare pentru atacurile cibernetice.

În rețelele tradiționale, comunicațiile au avut loc în principal între dispozitive fixe, cum ar fi telefoanele mobile și stațiile de bază. Cu toate acestea, rețelele 5G acceptă o gamă diversă de dispozitive conectate, inclusiv senzori, vehicule, drone și mașini industriale. Fiecare dispozitiv poate introduce vulnerabilități care ar putea fi exploatate, în special în mediile IoT unde dispozitivele pot avea capacități de securitate limitate. În plus, rețelele 5G folosesc rețele definite de software (SDN) și virtualizarea funcției de rețea (NFV), permițând rețele dinamice și scalabile. În timp ce aceste tehnologii sporesc flexibilitatea, ele prezintă și noi vectori de atac care pot fi exploatate dacă nu sunt securizate corespunzător.

Stivă de protocol pe bază de IP

5GC trece la o stivă de protocol bazată pe IP, permițând interoperabilitatea cu un număr mai mare de servicii și tehnologii în viitor. (2)(3) Următoarele protocoale, scheme și procese sunt adoptate în 5GC:

  • HTTP/2 și JSON ca strat de aplicație și protocoale de serializare, înlocuind protocolul Diameter peste punctul de referință S6a
  • TLS ca strat suplimentar de protecție care asigură comunicații criptate între toate funcțiile de rețea (NF) din interiorul unei rețele mobile de telefonie publică (PLMN)
  • TCP ca protocol de strat de transport
  • Cadrul RESTful cu OpenAPI 3.0.3 ca limbaj de definiție a interfeței (IDL).

Deoarece aceste protocoale sunt utilizate în industria IT mai largă, vor duce probabil la o vulnerabilitate mai scurtă în cronologia exploatării și la un impact mai mare al vulnerabilităților în cadrul acestor protocoale. Schemele de raportare a vulnerabilității vor trebui să gestioneze domeniul de aplicare extins al acestor protocoale. Odată localizat, timpul de corecție pentru vulnerabilități ar trebui să fie scurt.

Segmentarea rețelei și implicațiile sale de securitate

O caracteristică critică a 5G este segmentarea rețelei, care permite operatorilor să creeze mai multe rețele virtuale pe o infrastructură fizică partajată. Fiecare segment este proiectat pentru a satisface cerințele specifice ale diverselor aplicații, cum ar fi comunicațiile cu latență scăzută pentru conducere autonomă sau nevoile de lățime de bandă mare pentru serviciile de streaming.

Cu toate acestea, flexibilitatea oferită de segmentarea rețelei introduce și riscuri de securitate. Dacă un actor rău intenționat compromite o porțiune, ar putea să îi afecteze pe alții, mai ales dacă mecanismele de izolare a securității dintre secțiuni sunt inadecvate. Provocarea este de a asigura izolarea robustă între secțiunile de rețea, menținând în același timp eficiența operațională. Acest lucru necesită protocoale de securitate avansate și monitorizare continuă pentru a detecta și a atenua amenințările înainte ca acestea să se răspândească în rețea.

Securitatea lanțului de aprovizionare

Rețelele 5G se bazează pe un lanț global de aprovizionare pentru hardware, software și servicii. Deoarece componentele de rețea provin de la mai mulți furnizori din întreaga lume, integritatea lanțului de aprovizionare devine un aspect critic de securitate. Actorii rău intenționați ar putea introduce uși din spate, programe spion sau alte vulnerabilități în timpul producției, livrării sau instalării echipamentelor.

Una dintre cele mai mediatizate preocupări în acest sens este implicarea potențială a guvernelor sau organizațiilor străine în dezvoltarea infrastructurii 5G. De exemplu, unele guverne și-au exprimat îngrijorarea cu privire la utilizarea echipamentelor de la anumiți furnizori, invocând riscuri de securitate națională. Prin urmare, securitatea lanțului de aprovizionare trebuie abordată prin procese stricte de verificare a furnizorilor, cicluri de viață sigure de dezvoltare și transparență în aprovizionarea componentelor critice ale rețelei.

Confidențialitatea datelor

Rețelele 5G permit transferul de date în timp real la viteze și volume fără precedent. Deși acest lucru deschide noi oportunități pentru întreprinderi și consumatori, ridică și îngrijorări cu privire la confidențialitatea datelor. Cantitatea imensă de date generate și transmise prin rețelele 5G creează ținte atractive pentru infractorii cibernetici care doresc să intercepteze, să fure sau să manipuleze informații sensibile.

Natura descentralizată a 5G, cuplată cu faptul că datele pot fi procesate la marginea rețelei prin multi-access edge computing (MEC), crește riscul de acces neautorizat sau de încălcare a datelor. Mecanismele puternice de criptare, anonimizarea datelor și practicile de stocare sigură a datelor sunt esențiale pentru a proteja confidențialitatea utilizatorilor în mediile 5G. În plus, conformitatea cu reglementările, cum ar fi aderarea la Regulamentul general privind protecția datelor (GDPR) în Europa, adaugă un alt nivel de complexitate gestionării datelor în cadrul rețelelor 5G.

Autentificarea și managementul identității

Într-un ecosistem 5G cu milioane de dispozitive interconectate, mecanismele robuste de autentificare și de gestionare a identității sunt esențiale pentru a se asigura că numai dispozitivele și utilizatorii legitimi au acces la rețea. Protocoalele de autentificare slabe ar putea permite dispozitivelor neautorizate să se conecteze, ducând la încălcări ale datelor sau la exploatarea resurselor rețelei.

Metodele tradiționale de autentificare bazată pe SIM sunt completate cu noi tehnici de gestionare a identității, potrivite gamei diverse de dispozitive compatibile 5G. Acestea includ certificate specifice dispozitivului, autentificare biometrică și sisteme de detectare a anomaliilor bazate pe inteligență artificială. Cu toate acestea, implementarea autentificării securizate într-o rețea diversă și distribuită necesită o planificare și o coordonare atentă pentru a preveni potențialele vulnerabilități.

Atacurile de tip Denial-of-Service (DoS) și rezistența rețelei

Rețelele 5G, datorită dependenței lor de virtualizare și de gama largă de dispozitive conectate, sunt deosebit de vulnerabile la atacurile de tip Denial-of-Service (DoS). (2)(3) Astfel de atacuri pot copleși resursele rețelei, provocând întreruperi ample ale serviciului. Natura distribuită a infrastructurii 5G, inclusiv nodurile edge computing și celulele mici, înseamnă că un atac DoS ar putea avea efecte în cascadă, perturbând nu numai dispozitivele individuale, ci și serviciile critice, cum ar fi sistemele de asistență medicală, de transport sau de răspuns la urgențe.

Pentru a atenua riscul atacurilor DoS, rețelele 5G necesită mecanisme de rezistență încorporate, cum ar fi filtrarea traficului, echilibrarea încărcăturii și sisteme avansate de detectare a amenințărilor. Operatorii de rețea trebuie, de asemenea, să acorde prioritate sistemelor de redundanță și failover pentru a se asigura că serviciile critice rămân operaționale chiar și în timpul unui atac.

Rolul inteligenței artificiale și al învățării automate în securitate

Cantitatea mare de date care circulă prin rețelele 5G creează oportunități de utilizare a inteligenței artificiale (AI) și a învățării automate (ML) pentru a îmbunătăți securitatea. Algoritmii AI și ML pot ajuta la monitorizarea tiparelor de trafic, la detectarea anomaliilor și la răspuns la amenințări în timp real. Aceste tehnologii pot fi folosite și pentru automatizarea operațiunilor de securitate, reducând timpii de răspuns și minimizând erorile umane.

Cu toate acestea, AI și ML își introduc și propriile riscuri. Actorii rău intenționați ar putea manipula sistemele de securitate bazate pe inteligență artificială, furnizându-le date false sau exploatând vulnerabilitățile algoritmilor de bază. Prin urmare, deși AI și ML prezintă soluții de securitate promițătoare, acestea trebuie implementate cu prudență, cu proceduri robuste de validare și monitorizare pentru a se asigura că nu sunt compromise.

Respectarea cerințelor generale de asigurare a securității

Securitatea asigurată de funcțiile 5G Core și securitatea 5G Core în sine se bazează pe actualizarea permanentă a cerințelor de asigurare a securității pentru componentele de rețea critice precum UDM, AUSF, SEPP, NRF, NEF, SMF, AMF și UPF.

Cu toate acestea, va exista inevitabil un decalaj de actualizare a securității între noile cerințe de securitate și implementarea versiunilor actualizate ale funcțiilor de rețea în sistemele operaționale. Există doi factori majori în reducerea acestui decalaj: a) sensibilitatea furnizorilor la emiterea și validarea de noi versiuni ale funcțiilor de rețea care răspund cerințelor actualizate, și b) actualitatea și eficacitatea proceselor MNO pentru actualizarea sistemelor operaționale la recentele versiuni lansate și evaluate SCAS.

Concluzie

Tranziția la rețelele de telecomunicații 5G oferă un potențial extraordinar de inovare și conectivitate, dar vine și cu considerații semnificative de securitate. Complexitatea crescută a arhitecturii 5G, gama largă de dispozitive conectate și dependența de lanțurile globale de aprovizionare prezintă noi provocări care trebuie abordate pentru a asigura siguranța și integritatea rețelei. Strategiile de securitate cuprinzătoare – inclusiv mecanisme de autentificare îmbunătățite, criptare puternică, rezistență a rețelei și transparență a lanțului de aprovizionare – sunt esențiale pentru atenuarea acestor riscuri.

Pe măsură ce 5G continuă să evolueze, colaborarea dintre guverne, operatorii de rețea, producătorii de echipamente și experții în securitate cibernetică va fi esențială în dezvoltarea și implementarea protocoalelor de securitate eficiente. Numai abordând aceste provocări multiple de securitate, întregul potențial al 5G poate fi atins fără a compromite siguranța și confidențialitatea utilizatorilor săi.

Bibliografie

 

CC BY SA 4.0Articol cu Acces Deschis (Open Access) distribuit în conformitate cu termenii licenței de atribuire Creative Commons CC BY SA 4.0 (https://creativecommons.org/licenses/by-sa/4.0/).

The Ethics of Artificial Intelligence: Balancing Innovation and Responsibility

Sfetcu, Nicolae (2024), The Ethics of Artificial Intelligence: Balancing Innovation and Responsibility, IT & C, 3:4, DOI: 10.58679/IT38020, https://www.internetmobile.ro/the-ethics-of-artificial-intelligence-balancing-innovation-and-responsibility/

 

Abstract

This is an extended article based on the book Intelligence, from Natural Origins to Artificial Frontiers – Human Intelligence vs. Artificial Intelligence (Sfetcu 2024). As AI systems evolve and become more pervasive in our daily lives, the ethical considerations surrounding their development, deployment, and impact have come to the forefront. The ethics of artificial intelligence span a broad spectrum of issues, ranging from privacy and bias to accountability and the societal consequences of automation. This articledelves into these ethical dimensions, highlighting the importance of adopting a balanced approach that encourages innovation while protecting human values and rights.

Keywords: artificial intelligence, ethics, responsibility, ethical principles, ethical challenges, robots

Etica inteligenței artificiale: echilibrarea inovației și a responsabilității

Rezumat

Acesta este un articol extins având ca sursă cartea Intelligence, from Natural Origins to Artificial Frontiers – Human Intelligence vs. Artificial Intelligence (Sfetcu 2024). Pe măsură ce sistemele de inteligență artificială evoluează și devin mai răspândite în viața noastră de zi cu zi, considerentele etice legate de dezvoltarea, implementarea și impactul lor au ajuns în prim-plan. Etica inteligenței artificiale acoperă un spectru larg de probleme, de la confidențialitate și părtinire până la responsabilitate și consecințele societale ale automatizării. Acest articol analizează aceste dimensiuni etice, subliniind importanța adoptării unei abordări echilibrate care încurajează inovația, protejând în același timp valorile și drepturile omului.

Cuvinte cheie: inteligența artificială, etică, responsabilitate, principii etice, provocări etice, roboți

 

IT & C, Volumul 3, Numărul 4, Decembrie 2024, pp.
ISSN 2821 – 8469, ISSN – L 2821 – 8469, DOI: 10.58679/IT38020
URL: https://www.internetmobile.ro/the-ethics-of-artificial-intelligence-balancing-innovation-and-responsibility/
© 2024 Nicolae Sfetcu. Responsabilitatea conținutului, interpretărilor și opiniilor exprimate revine exclusiv autorilor.

 

The Ethics of Artificial Intelligence: Balancing Innovation and Responsibility

Ing. fiz. Nicolae SFETCU[1], MPhil

nicolae@sfetcu.com

[1] Cercetător – Academia Română – Comitetul Român de Istoria și Filosofia Științei și Tehnicii (CRIFST), Divizia de Istoria Științei (DIS), ORCID: 0000-0002-0162-9973

 

Introduction

Artificial intelligence (AI) has emerged as a pivotal technology of the 21st century, propelling innovation across a wide array of sectors, including healthcare, finance, transportation, and more. As AI systems evolve and become more pervasive in our daily lives, the ethical considerations surrounding their development, deployment, and impact have come to the forefront. The ethics of artificial intelligence span a broad spectrum of issues, ranging from privacy and bias to accountability and the societal consequences of automation. This essay delves into these ethical dimensions, highlighting the importance of adopting a balanced approach that encourages innovation while protecting human values and rights.

Both human and artificial intelligence have made remarkable progress in recent decades. Human intelligence has led to innovations in science, technology, art, and government, shaping the world in profound ways. Meanwhile, AI has revolutionized industries such as healthcare, finance, transportation and entertainment, providing unprecedented capabilities in data analysis, automation and decision-making.

However, these advances also raise ethical considerations and societal implications. Ethical dilemmas regarding AI governance, mitigating bias, and preserving privacy require urgent attention. As AI systems become increasingly autonomous, ensuring transparency, accountability and fairness is critical. Additionally, the socioeconomic ramifications of widespread AI adoption deserve careful deliberation. While AI has the potential to enhance human capabilities and alleviate societal challenges, it also poses risks, such as replacing jobs and exacerbating inequality. Navigating these complex ethical and societal issues will require collaborative efforts by policymakers, technologists, and stakeholders from different fields.

The ethics of artificial intelligence involves two aspects: the moral behavior of humans in the design, manufacture, use and treatment of artificially intelligent systems, and the behavior (ethics) of machines, including the case of a possible singularity due to superintelligent AI. (Müller 2023)

Robot ethics („roboetics”) deals with the design, construction, use, and treatment of robots as physical machines. Not all robots use AI systems and not all AI systems are robots. (Müller 2023)

Machine ethics (or machine morality) deals with the design of artificial moral agents (AMAs), robots or artificially intelligent computers that behave morally or as if they were moral (Anderson and Anderson 2011). Common characteristics of the agent in philosophy, such as the rational agent, the moral agent, and the artificial agent, are related to the concept of AMA (Boyles 2017).

Machine ethics deals with adding or ensuring moral behaviors to machines using artificial intelligence (artificially intelligent agents) (J.H. Moor 2006).

Isaac Asimov in 1950 in I, Robot proposed the three laws of robotics, then tested the limits of these laws (Asimov 2004).

James H. Moor defines four types of ethical robots: ethical impact agent, implicit ethical agent (to avoid unethical outcomes), explicit ethical agent (process scenarios and act on ethical decisions), and fully ethical agent (able to makes ethical decisions, in addition to human metaphysical traits). A machine can include several such types (James H. Moor 2009).

The term „machine ethics” was coined by Mitchell Waldrop in the 1987 IA journal article „A Question of Responsibility”:

„Intelligent machines will embody values, assumptions, and purposes, whether their programmers consciously intend them to or not. Thus, as computers and robots become more and more intelligent, it becomes imperative that we think carefully and explicitly about what those built-in values are. Perhaps what we need is, in fact, a theory and practice of machine ethics, in the spirit of Asimov’s three laws of robotics” (Waldrop 1987)

To increase efficiency and avoid bias, Nick Bostrom and Eliezer Yudkowsky argued for decision trees over neural networks and genetic algorithms, as decision trees conform to modern social norms of transparency and predictability (Bostrom and Yudkowsky 2018). Chris Santos-Lang championed neural networks and genetic algorithms (Santos-Lang 2015). In 2009, in an experiment, AI robots were programmed to cooperate with each other using a genetic algorithm. The robots then learned to lie to each other in an attempt to hoard resources from other robots (S. Fox 2009), but they also engaged in altruistic behavior by signaling danger to each other and even giving their lives to save other robots. The ethical implications of this experiment have been contested by machine ethicists.

In 2009, at a conference, it was discussed that some machines have acquired various forms of semi-autonomy; also, some computer viruses can avoid their removal and have acquired „bug intelligence” (S. Fox 2009).

There is currently a heated debate about the use of autonomous robots in military combat (Palmer 2009), and the integration of general artificial intelligence into existing legal and social frameworks (Sotala and Yampolskiy 2014).

Nayef Al-Rodhan mentions the case of neuromorphic chips, a technology that could support the moral competence of robots (Al-Rodhan 2015).

Ethical principles of AI

AI decision-making raises questions of legal responsibility and copyright status of created works (Guadamuz 2017). Friendly AI involves machines designed to minimize risks and make choices that benefit humans (Yukdowsky 2008). The field of machine ethics provides principles and procedures for solving ethical dilemmas, founded at an AAIA symposium in 2005 (AAAI 2014).

As AI systems evolve to become more autonomous and capable of making decisions with significant ramifications, the issue of accountability becomes increasingly critical. Who bears responsibility when an AI system makes an error or inflicts harm? Is it the developers responsible for crafting the system, the organizations that deploy it, or the AI system itself? These questions become particularly complex in scenarios where AI systems operate within intricate environments, such as autonomous vehicles or healthcare diagnostics, where errors can have life-threatening consequences.

From an ethical standpoint, it is essential to establish definitive accountability frameworks for AI systems. This includes the establishment of mechanisms that allow individuals to seek redress when adversely affected by AI decisions. It also involves the development of standards for the creation and deployment of AI systems, including rigorous testing and validation procedures, to mitigate the risk of harm. Moreover, the potential for AI systems to be used as a justification for decisions that would otherwise be deemed unethical by attributing them to an „impartial” machine warrants careful examination to prevent the relinquishment of human responsibility.

The regulation of artificial intelligence is the development of public sector policies and laws to promote and regulate artificial intelligence and by implication algorithms, an emerging issue in jurisdictions globally (Law Library of Congress (U.S.) 2019). Between 2016 and 2020, more than 30 countries adopted dedicated AI strategies. Most EU member states have launched national AI strategies, as have Canada, China, India, Japan, Mauritius, the Russian Federation, Saudi Arabia, the United Arab Emirates, the US and Vietnam. Others are in the process of developing their own AI strategy, including Bangladesh, Malaysia and Tunisia. The Global Partnership on Artificial Intelligence was launched in June 2020, stating the need for AI to be developed in line with human rights and democratic values (UNESCO 2021), to ensure public trust in the technology. In the US, Henry Kissinger, Eric Schmidt and Daniel Huttenlocher published a joint statement in November 2021 calling for a government commission to regulate AI (Sfetcu 2021).

In the review of 84 ethics guidelines for AI, 11 groups of principles were found: transparency, justice and fairness, non-maleficence, responsibility, confidentiality, beneficence, freedom and autonomy, trust, sustainability, dignity, solidarity (Jobin, Ienca, and Vayena 2019).

Luciano Floridi and Josh Cowls created an ethical framework of AI principles based on four principles of bioethics (beneficence, non-maleficence, autonomy and justice) and an additional AI-enabling principle – explainability (Floridi and Cowls 2019).

Bill Hibbard argues that AI developers have an ethical obligation to be transparent in their work (Hibbard 2016). Ben Goertzel and David Hart created OpenCog as an open-source framework for AI development (Hart and Goertzel 2016). OpenIA is a non-profit AI research company created by Elon Musk, Sam Altman and others to develop open source AI beneficial to humanity (Metz 2016).

Many researchers recommend government regulation as a means of ensuring transparency, although critics worry that it will slow the rate of innovation (UN 2017).

There is a huge volume of proposed ethical principles for AI—already more than 160 in 2020, according to Algorithm Watch’s global inventory of AI Ethics Guidelines (AlgorithmWatch 2024), which threatens to overwhelm and confuse.

On June 26, 2019, the European Commission’s High Level Expert Group on Artificial Intelligence (IA HLEG) published „Policy and Investment Recommendations for Trustworthy AI”, covering four main topics: people and society at large, research and academia, the private sector and the public sector. The European Commission claims that „the HLEG recommendations reflect both the opportunities that AI technologies can drive economic growth, prosperity and innovation, as well as the potential associated risks”, and states that the EU aims to lead the development of policies governing AI internationally. On April 21, 2021, the European Commission proposed the Artificial Intelligence Law (EU 2024).

According to Mihalis Kritikos (Kritikos 2019), the development of AI in a regulatory and ethical vacuum has sparked a series of debates about the need for its legal control and ethical oversight. AI-based algorithms that perform automated reasoning tasks appear to control increasing aspects of our lives by implementing institutional decision-making based on big data analysis and have, in fact, made this technology an influential standard-setter.

The impact of existing AI technologies on the exercise of human rights, from freedom of expression, freedom of assembly and association, the right to privacy, the right to work and the right to non-discrimination to equal protection of the law, must be carefully examined and qualified together with the potential of AI to exacerbate inequalities and widen the digital divide. Given AI’s potential to act in an autonomous manner, its sheer complexity and opacity, and the uncertainty surrounding its operation, make a comprehensive regulatory response essential to prevent ever-expanding applications from causing social harm in a very heterogeneous range of individuals and social groups.

Such a response should include obligating AI algorithm developers to fully respect the human rights and civil liberties of all users, maintaining uninterrupted human control over AI systems, addressing the effects of emotional connection and attachment between humans and robots and develop common standards against which a judicial authority using AI will be evaluated. It should also focus on the allocation of responsibilities, rights and duties and prevent the reduction of the legal governance process to a mere technical optimization of machine learning and algorithmic decision-making procedures. In this framework, new collective data rights must be introduced, which will protect the ability to refuse to be profiled, the right to appeal and the right to explanation in decision-making frameworks based on artificial intelligence.

In addition, legislators must ensure that organizations implementing and using these systems remain legally responsible for any caused harm and develop sustainable and proportionate informed consent protocols (Kritikos 2019).

2017 European Parliament Resolution on civil law rules in robotics – comprising a ‘code of ethical conduct for robotics engineers’, a ‘code for research ethics committees’, a ‘designers’ license’ and a ‘users’ license ” can serve as a governance model for a detailed process-based architecture of AI technology ethics (Kritikos 2019).

The European Commission appointed the High-Level Expert Group (HLEG) on AI in 2018, one of their tasks is to define ethical guidelines for trustworthy AI. For an AI system to be reliable, it should ensure the following three components throughout the entire life cycle of the system (Joint Research Centre (European Commission), Samoili, et al. 2020):

  1. Lawfully, in compliance with all applicable laws and regulations,
  2. Ethical, ensuring adherence to ethical principles and values,
  3. Robust, technically and socially.

The four ethical principles that are rooted in fundamental rights that must be respected to ensure that AI systems are developed, implemented and used in a trustworthy way are (Joint Research Centre (European Commission), Samoili, et al. 2020):

  • Respect for human autonomy,
  • Preventing harm,
  • Fairness,

These are reflected in legal requirements (the scope of legal AI, which is the first component of trusted AI).

Stakeholder responsibilities (Joint Research Centre (European Commission), Samoili, et al. 2020):

  1. Developers: must implement and apply the requirements of the design and development processes.
  2. Implementers: must ensure that the systems they use and the products and services they offer meet the requirements.
  3. End users and society in general: must be informed of these requirements and be able to demand that they be respected.

Requirements that include systemic, individual and societal aspects (Joint Research Centre (European Commission), Samoili, et al. 2020):

  1. Human agency and surveillance, including fundamental rights and human surveillance.
  2. Technical robustness and security, including security and resistance to attacks, fallback plan and overall security, accuracy, reliability and reproducibility.
  3. Data privacy and governance, including respect for confidentiality, data quality and integrity, and access to data.
  4. Transparency, including traceability, explainability and communication.
  5. Diversity, non-discrimination and fairness, including avoidance of unfair bias, accessibility and universal design and stakeholder participation.
  6. Societal and environmental well-being, including sustainability and environmental friendliness, social impact, society and democracy.

Implementation of these requirements should occur throughout the entire life cycle of an AI system and depends on the specific application.

In June 2016, Satya Nadella, CEO of Microsoft Corporation, in an interview with Slate magazine recommended the following principles and goals for artificial intelligence (Vincent 2016):

  • „AI must be designed to assist humanity”, i.e. human autonomy must be respected.
  • “AI must be transparent,” meaning that people should know and be able to understand how it works.
  • „AI must maximize efficiency without destroying human dignity.”
  • “AI must be designed for intelligent privacy,” meaning it earns trust by protecting their information.
  • “AI must have algorithmic accountability” so humans can undo unintended harm.
  • “AI must guard against bias” so that it does not discriminate against humans.

In 2017, the Asilomar AI principles (Asilomar 2017) were embraced by an impressive list of 1273 AI/robotics researchers and others (Joint Research Centre (European Commission), Samoili, et al. 2020):

  • Provide a broad framework about research objectives, funding and policy linkage.
  • Ethics and values consider safety, transparency, judicial transparency, accountability, human values, personal privacy, common benefits, human control, AI arms race, etc.
  • Discuss the long-term issues and risk of possible superintelligence, mitigation of the threat posed by AI systems, etc.

The OECD Principles for AI (OECD 2024a) identify five complementary principles (Joint Research Centre (European Commission), Samoili, et al. 2020):

  1. AI should benefit all people by fostering inclusive growth, sustainable development and well-being.
  2. Artificial intelligence systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and should include appropriate safeguards.
  3. There should be transparency and responsible disclosure around AI systems to ensure that people understand AI-based results and can challenge them.
  4. AI systems must operate in a robust and secure manner throughout their life cycle, and potential risks should be continuously assessed and managed.
  5. Organizations and individuals developing, implementing or operating AI systems should be held accountable for their proper functioning in accordance with the above principles.

Other sets of principles adopted to date (Floridi 2023):

  • The Montreal Declaration(Université de Montréal 2017) developed under the auspices of the University of Montreal following the Forum on the Socially Responsible Development of AI in November 2017;
  • OECD developed Council recommendations on AI(OECD 2024b);
  • The „five general principles for an AI code” from the report of the United Kingdom House of Lords Select Committee on Artificial Intelligence(House of Lords 2017, par. 417) published in April 2018;
  • Partnership Principles on AI(Partnership on AI 2024) published in collaboration with academics, researchers, civil society organizations, companies building and using AI technology and other groups.
  • China has released its own AI principles, called the Beijing AI Principles.
  • The Google AI Principles(Google 2024) focus on building socially beneficial artificial intelligence.

Many AI ethics committees have been formed, including the Stanford Institute for Human-Centered AI (HAI), the Alan Turing Institute, the AI Partnership, IA Now, IEEE, and others. Research advances make it possible to develop evaluation frameworks for fairness, transparency and accountability (Joint Research Centre (European Commission), Samoili, et al. 2020).

Ethical challenges of AI

If a machine has a mind and subjective experience, then it may also have sentience (the ability to feel), and if so, then it might have certain rights (Russell and Norvig 2016, 964) on a common spectrum with animal rights and human (Henderson 2007).

Many academics and governments dispute the idea that AI can be held accountable per se (Bryson, Diamantis, and Grant 2017). Also, some experts and academics disagree with the use of robots in military combat, especially if they have autonomous functions (Palmer 2009).

Currently attempts are being made to create tests to see if an AI is capable of making ethical decisions. The Turing test is considered insufficient. A specific proposed test is the Ethical Turing Test, where several judges decide whether the AI’s decision is ethical or unethical (A. F. Winfield et al. 2019).

Privacy and surveillance: A critical ethical issue associated with AI is privacy. AI systems frequently depend on extensive data to operate efficiently, leading to the collection, storage, and analysis of personal information on an unprecedented scale. This data encompasses a variety of aspects, including online activities, purchasing patterns, biometric data, and personal communications. The potential for the misuse of this data, whether by governmental entities, corporations, or nefarious actors, poses significant ethical concerns.

Surveillance is a particularly contentious area. AI-driven surveillance technologies, such as facial recognition, are capable of monitoring and tracking individuals without their consent, thereby violating privacy rights. In certain instances, these technologies have been implemented in ways that disproportionately affect marginalized communities, furthering existing social disparities. The ethical challenge here is to reconcile the potential advantages of such technologies, such as improved security and crime prevention, with the imperative to safeguard individual privacy and prevent abuses of authority.

Addressing bias and fairness: : AI systems are vulnerable to biases and errors introduced by their human creators and the data used to train these systems (Gabriel 2018). One solution to addressing bias is to create documentation for the data used to train AI systems (Bender and Friedman 2018).

Artificial Intelligence (AI) systems are frequently praised for their capacity to make decisions grounded in data rather than the subjective nature of human intuition, which is susceptible to errors and biases. Nonetheless, it is imperative to acknowledge that AI is not exempt from these biases. In fact, AI systems have the potential to perpetuate and even exacerbate the biases inherent in the data upon which they are trained. For example, if an AI system is trained on historical hiring data that reflects gender or racial biases, it may inadvertently replicate these biases in its recommendations, resulting in inequitable outcomes.

The ethical challenge at hand is to ensure that AI systems are developed and implemented in a manner that fosters fairness and avoids discrimination against individuals or groups. This necessitates a meticulous consideration of the data utilized for training AI systems, alongside continuous monitoring to identify and rectify biases. Furthermore, it prompts inquiries regarding the transparency of AI’s decision-making processes and the capacity of individuals to contest and comprehend these decisions.

Robot rights: A concept that humans should have moral obligations to their machines, similar to human rights or animal rights (W. Evans 2015). Thus, in October 2017, the android Sophia was granted citizenship in Saudi Arabia (Hatmaker 2017). The philosophy of sentientism accords degrees of moral consideration to all sentient beings, including artificial intelligence if it is proven to be sentient.

Unlike humans, AGIs can be copied in any number of copies. Are the copied copies the same person or several different people? Do I get one vote or more? Is deleting one of the children a crime? Would treating AGI like any other computer programs constitute brainwashing, slavery and tyranny? (Deutsch 2012)

Threat to human dignity: Joseph Weizenbaum argued in 1976 that AI technology should not be used to replace humans in positions that require respect and care (Weizenbaum 1976). John McCarthy contradicts him: „When moralizing is both vehement and vague, it invites authoritarian abuse” (McCarthy 2000).

Artificial intelligence stands poised to significantly alter the employment landscape, with the threat of job displacement looming large across various sectors, from manufacturing to customer service. While proponents argue that AI will spawn new employment opportunities and stimulate economic growth, there are concerns regarding the potential social and economic upheaval stemming from widespread job displacement. The ethical imperative here is to navigate the transition towards an AI-centric economy in a manner that minimizes adverse effects and guarantees the equitable distribution of AI’s benefits.

This necessitates the implementation of policies aimed at supporting workers displaced by automation, including retraining initiatives and social safety nets. Furthermore, a comprehensive examination of the societal ramifications of AI is essential. For instance, the concentration of AI research and development within a select few large technology corporations raises issues concerning power centralization and the possibility of AI exacerbating existing societal inequalities. Consequently, the ethical development of AI should encompass efforts to democratize access to AI technologies and ensure their utilization for societal welfare, rather than merely for-profit maximization.

Liability for self-driving cars: There is a debate about legal liability in the event of an accident. If a driverless car hit a pedestrian, who was to blame for the accident: the driver, the pedestrian, the builder, or the government?  (Shinn 2021)

Weapons that include AI: Many experts and academics oppose the use of autonomous robots in military combat. There is a possibility that robots will develop the ability to make their own logical decisions in killing. This includes autonomous drones. Stephen Hawking and Max Tegmark signed a „Future of Life” petition (Asilomar 2017) to ban AI-equipped weapons (Musgrave and Roberts 2015).

Opaque algorithms: Machine learning with neural networks can lead to AI decisions that the humans who programmed them cannot explain. Explainable AI encompasses both explainability (summarizing neural network behavior and increasing user confidence) and interpretability (understanding what a model has done or could do) (Bunn 2020).

Regardless of whether we are talking about a weak AI or a strong AI (AGI), the imposition of norms, compliance with them can take three possible directions: a) strict compliance with these norms; b) own different interpretation of the imposed norms (with the possibility of deviating from the projected objectives); and c) (in the case of AGI only) developing very different norms and ethics of their own.

The laws of robots

The first ethical laws are considered to be the 10 commandments present three times in the Old Testament, being dictated according to the Bible by God to Moses (Coogan 2014, 27, 33), a set of biblical principles related to ethics and worship originating in the Jewish tradition which plays a fundamental role in Judaism and Christianity.

The best-known set of laws for robots are those written by Isaac Asimov in the 1940s, introduced in his 1942 short story „Runaround”:

  1. A robot cannot harm a human being or, through inaction, allow a human being to do harm.
  2. A robot must obey orders given by human beings, unless such orders conflict with the First Law.
  3. A robot must protect its own existence if such protection does not conflict with the First or Second Law(Asimov 2004).

In The Evitable Conflict, the First Law for Machines is generalized:

  1. No machine can harm humanity; or, by inaction, cannot allow harm to be done to mankind.

In Foundation and Earth, a zero law was introduced, with the original three duly rewritten as subordinate to it:

  1. A robot cannot harm humanity or, through inaction, allow humanity to be harmed.

In 2011, the UK’s Engineering and Physical Sciences Research Council (EPSRC) and Arts and Humanities Research Council (AHRC) published a set of five „ethical principles for designers, builders and users of robots” in the real world, along with seven ‘high-level messages’ (A. Winfield 2011):

Ethical principles:

  1. Robots should not be designed solely or primarily to kill or injure humans.
  2. Humans, not robots, are responsible agents. Robots are tools designed to achieve human goals.
  3. Robots should be designed in ways that ensure their safety and security.
  4. Robots are artifacts; they should not be designed to exploit vulnerable users by evoking an emotional response or addiction. It should always be possible to distinguish between a robot and a human.
  5. It should always be possible to find out who is legally responsible for a robot.

A terminology for the legal assessment of robot developments is being implemented in Asian countries (BBC 2007).

Mark W. Tilden proposed a series of principles/rules for robots (Dunn 2009):

  1. A robot must protect its existence at all costs.
  2. A robot must obtain and maintain access to its own power source.
  3. A robot must continuously search for better energy sources.

Ethical machines

Friendly AI are machines that have been designed from the ground up to minimize risk and make choices that benefit humans. Eliezer Yudkowsky, who coined the term, argues that developing friendly AI should be a higher research priority: it may require a large investment and must be completed before AI becomes an existential risk.

Intelligent machines have the potential to use their intelligence to make ethical decisions. The field of machine ethics provides machines with ethical principles and procedures for solving ethical dilemmas. Machine ethics is also called machine morality, computational ethics, or computational morality, and was founded at an AAIA symposium in 2005.

Other approaches include Wendell Wallach’s „artificial moral agents” and Stuart J. Russell’s three principles for developing machines that prove beneficial (Sfetcu 2021).

Conclusion

As AI technology progresses, the distinction between human and machine-based decision-making is becoming increasingly indistinct. This phenomenon raises profound ethical considerations regarding the future of human autonomy and agency. For example, if AI systems can make decisions that are indistinguishable from those made by humans, what implications does this have for the concept of free will? Moreover, the integration of AI systems into various facets of everyday life poses a risk of individuals becoming excessively dependent on these technologies, potentially leading to a diminution of critical thinking skills and human judgment.

From an ethical standpoint, it is imperative to contemplate the long-term effects of AI on human society and culture. This includes the design of AI systems to augment, rather than detract from, human capabilities and values. It also involves the promotion of a public discourse on the societal role of AI and the encouragement of AI technology development that is in harmony with human interests.

In conclusion, the ethical considerations surrounding artificial intelligence are multifaceted and continuously evolving, addressing some of the most critical questions concerning the future of human society. As AI technology advances, it is crucial to approach its development and application with a robust ethical framework that balances innovation with responsibility. This includes the protection of privacy, the assurance of fairness, the establishment of accountability, the management of the societal impact of automation, and the preservation of human autonomy. By addressing these ethical challenges with foresight, we can leverage the transformative potential of AI while ensuring its benefits are realized for the greater good.

Bibliography

  • AAAI. 2014. “Machine Ethics.” November 29, 2014. https://web.archive.org/web/20141129044821/http://www.aaai.org/Library/Symposia/Fall/fs05-06.
  • AlgorithmWatch. 2024. “AI Ethics Guidelines Global Inventory.” AlgorithmWatch. 2024. https://algorithmwatch.org/en/ai-ethics-guidelines-global-inventory/.
  • Al-Rodhan, Nayef. 2015. “The Moral Code.” Foreign Affairs, August 12, 2015. https://www.foreignaffairs.com/moral-code.
  • Anderson, Michael, and Susan Leigh Anderson, eds. 2011. Machine Ethics. Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9780511978036.
  • Asilomar. 2017. “Asilomar AI Principles.” Future of Life Institute (blog). 2017. https://futureoflife.org/open-letter/ai-principles/.
  • Asimov, Isaac. 2004. I, Robot. Bantam Books.
  • BBC. 2007. “Robotic Age Poses Ethical Dilemma,” March 7, 2007. http://news.bbc.co.uk/2/hi/technology/6425927.stm.
  • Bender, Emily M., and Batya Friedman. 2018. “Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science.” Transactions of the Association for Computational Linguistics 6 (December):587–604. https://doi.org/10.1162/tacl_a_00041.
  • Bostrom, Nick, and Eliezer Yudkowsky. 2018. “The Ethics of Artificial Intelligence.” In , 57–69. https://doi.org/10.1201/9781351251389-4.
  • Boyles, Robert James M. 2017. “Philosophical Signposts for Artificial Moral Agent Frameworks.” Suri 6 (2): 92–109.
  • Bryson, Joanna J., Mihailis E. Diamantis, and Thomas D. Grant. 2017. “Of, for, and by the People: The Legal Lacuna of Synthetic Persons.” Artificial Intelligence and Law 25 (3): 273–91. https://doi.org/10.1007/s10506-017-9214-9.
  • Bunn, Jenny. 2020. “Working in Contexts for Which Transparency Is Important: A Recordkeeping View of Explainable Artificial Intelligence (XAI).” Records Management Journal 30 (2): 143–53. https://doi.org/10.1108/RMJ-08-2019-0038.
  • Coogan, Michael. 2014. The Ten Commandments: A Short History of an Ancient Text. Yale University Press. https://www.jstor.org/stable/j.ctt5vkqht.
  • Deutsch, David. 2012. “Philosophy Will Be the Key That Unlocks Artificial Intelligence.” The Guardian, October 3, 2012, sec. Science. https://www.theguardian.com/science/2012/oct/03/philosophy-artificial-intelligence.
  • Dunn, Ashley. 2009. “Machine Intelligence, Part II: From Bumper Cars to Electronic Minds.” 2009. https://archive.nytimes.com/www.nytimes.com/library/cyber/surf/0605surf.html.
  1. 2024. “EU Artificial Intelligence Act | Up-to-Date Developments and Analyses of the EU AI Act.” 2024. https://artificialintelligenceact.eu/.
  • Evans, Woody. 2015. “Posthuman Rights: Dimensions of Transhuman Worlds.” Teknokultura. Revista de Cultura Digital y Movimientos Sociales 12 (2): 373–84. https://doi.org/10.5209/rev_TK.2015.v12.n2.49072.
  • Floridi, Luciano. 2023. The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford University Press. https://doi.org/10.1093/oso/9780198883098.001.0001.
  • Floridi, Luciano, and Josh Cowls. 2019. “A Unified Framework of Five Principles for AI in Society.” Harvard Data Science Review 1 (1). https://doi.org/10.1162/99608f92.8cd550d1.
  • Fox, Stuart. 2009. “Evolving Robots Learn To Lie To Each Other.” Popular Science. August 19, 2009. https://www.popsci.com/scitech/article/2009-08/evolving-robots-learn-lie-hide-resources-each-other/.
  • Gabriel, Iason. 2018. “The Case for Fairer Algorithms.” Medium (blog). March 14, 2018. https://medium.com/@Ethics_Society/the-case-for-fairer-algorithms-c008a12126f8.
  • Google. 2024. “Google AI Principles.” Google AI. 2024. https://ai.google/responsibility/principles/.
  • Guadamuz, Andres. 2017. “Artificial Intelligence and Copyright.” 2017. https://www.wipo.int/wipo_magazine/en/2017/05/article_0003.html.
  • Hart, David, and Ben Goertzel. 2016. “OpenCog: A Software Framework for Integrative Artificial General Intelligence.” https://web.archive.org/web/20160304205408/http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.366.621&rep=rep1&type=pdf.
  • Hatmaker, Taylor. 2017. “Saudi Arabia Bestows Citizenship on a Robot Named Sophia.” TechCrunch (blog). October 26, 2017. https://techcrunch.com/2017/10/26/saudi-arabia-robot-citizen-sophia/.
  • Henderson, Mark. 2007. “Human Rights for Robots? We’re Getting Carried Away,” 2007, sec. unknown section. https://www.thetimes.co.uk/article/human-rights-for-robots-were-getting-carried-away-xfbdkpgwn0v.
  • Hibbard, Bill. 2016. “Open Source AI.” https://www.ssec.wisc.edu/~billh/g/hibbard_agi_workshop.pdf.
  • House of Lords. 2017. “AI in the UK: Ready, Willing and Able? – Artificial Intelligence Committee.” 2017. https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/10002.htm.
  • Jobin, Anna, Marcello Ienca, and Effy Vayena. 2019. “The Global Landscape of AI Ethics Guidelines.” Nature Machine Intelligence 1 (9): 389–99. https://doi.org/10.1038/s42256-019-0088-2.
  • Joint Research Centre (European Commission), S. Samoili, M. López Cobo, E. Gómez, G. De Prato, F. Martínez-Plumed, and B. Delipetrev. 2020. AI Watch: Defining Artificial Intelligence : Towards an Operational Definition and Taxonomy of Artificial Intelligence. Publications Office of the European Union. https://data.europa.eu/doi/10.2760/382730.
  • Kritikos, Mihalis. 2019. “Artificial Intelligence Ante Portas: Legal & Ethical Reflections | Think Tank | European Parliament.” 2019. https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2019)634427.
  • Law Library of Congress (U.S.), ed. 2019. Regulation of Artificial Intelligence in Selected Jurisdictions. Washington, D.C: The Law Library of Congresss, Staff of the Global Legal Research Directorate.
  • McCarthy, John. 2000. Defending AI Research: A Collection of Essays and Reviews. CSLI Publications.
  • Metz, Cade. 2016. “Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free.” Wired, 2016. https://www.wired.com/2016/04/openai-elon-musk-sam-altman-plan-to-set-artificial-intelligence-free/.
  • Moor, James H. 2009. “Four Kinds of Ethical Robots | Issue 72 | Philosophy Now.” 2009. https://philosophynow.org/issues/72/Four_Kinds_of_Ethical_Robots.
  • Moor, J.H. 2006. “The Nature, Importance, and Difficulty of Machine Ethics.” IEEE Intelligent Systems 21 (4): 18–21. https://doi.org/10.1109/MIS.2006.80.
  • Müller, Vincent C. 2023. “Ethics of Artificial Intelligence and Robotics.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta and Uri Nodelman, Fall 2023. Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/archives/fall2023/entries/ethics-ai/.
  • Musgrave, Zach, and Bryan W. Roberts. 2015. “Why Humans Need To Ban Artificially Intelligent Weapons.” The Atlantic (blog). August 14, 2015. https://www.theatlantic.com/technology/archive/2015/08/humans-not-robots-are-the-real-reason-artificial-intelligence-is-scary/400994/.
  • OECD. 2024a. “AI-Principles Overview.” 2024. https://oecd.ai/en/principles.
  • ———. 2024b. “OECD Legal Instruments.” 2024. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.
  • Palmer, Jason. 2009. “Call for Debate on Killer Robots,” August 3, 2009. http://news.bbc.co.uk/2/hi/technology/8182003.stm.
  • Partnership on AI. 2024. “Partnership on AI.” Partnership on AI. 2024. https://partnershiponai.org/about/.
  • Russell, Stuart, and Peter Norvig. 2016. “Artificial Intelligence: A Modern Approach, 4th US Ed.” 2016. https://aima.cs.berkeley.edu/.
  • Santos-Lang, Christopher. 2015. “Moral Ecology Approaches to Machine Ethics.” Intelligent Systems, Control and Automation: Science and Engineering 74 (January):111–27. https://doi.org/10.1007/978-3-319-08108-3_8.
  • Sfetcu, Nicolae. 2021. Introducere în inteligența artificială. Nicolae Sfetcu. https://www.telework.ro/ro/e-books/introducere-in-inteligenta-artificiala/.
  • ———. 2024. Intelligence, from Natural Origins to Artificial Frontiers – Human Intelligence vs. Artificial Intelligence. Bucharest, Romania: MultiMedia Publishing. https://www.telework.ro/en/e-books/intelligence-from-natural-origins-to-artificial-frontiers-human-intelligence-vs-artificial-intelligence/.
  • Shinn, Lora. 2021. “Everything You Need to Know About Insurance for Self-Driving Cars.” The Balance. 2021. https://www.thebalancemoney.com/self-driving-cars-and-insurance-what-you-need-to-know-4169822.
  • Sotala, Kaj, and Roman V. Yampolskiy. 2014. “Responses to Catastrophic AGI Risk: A Survey.” Physica Scripta 90 (1): 018001. https://doi.org/10.1088/0031-8949/90/1/018001.
  • UN 2017. “UN Artificial Intelligence Summit Aims to Tackle Poverty, Humanity’s ‘grand Challenges’ | UN News.” June 7, 2017. https://news.un.org/en/story/2017/06/558962.
  • UNESCO. 2021. “The Race against Time for Smarter Development | 2021 Science Report.” 2021. https://www.unesco.org/reports/science/2021/en.
  • Université de Montréal. 2017. “Déclaration de Montréal IA responsable.” Déclaration de Montréal IA responsable. 2017. https://declarationmontreal-iaresponsable.com/.
  • Vincent, James. 2016. “Satya Nadella’s Rules for AI Are More Boring (and Relevant) than Asimov’s Three Laws.” The Verge. June 29, 2016. https://www.theverge.com/2016/6/29/12057516/satya-nadella-ai-robot-laws.
  • Waldrop, M. Mitchell. 1987. “A Question of Responsibility.” AI Magazine 8 (1): 28–28. https://doi.org/10.1609/aimag.v8i1.572.
  • Weizenbaum, Joseph. 1976. Computer Power and Human Reason: From Judgment to Calculation. W. H. Freeman.
  • Winfield, Alan. 2011. “Five Roboethical Principles – for Humans.” New Scientist. 2011. https://www.newscientist.com/article/mg21028111-100-five-roboethical-principles-for-humans/.
  • Winfield, Alan F., Katina Michael, Jeremy Pitt, and Vanessa Evers. 2019. “Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue].” Proceedings of the IEEE 107 (3): 509–17. https://doi.org/10.1109/JPROC.2019.2900622.
  • Yukdowsky, Eliezer. 2008. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Global Catastrophic Risks. https://ui.adsabs.harvard.edu/abs/2008gcr..book..303Y.

 

CC BY SA 4.0Articol cu Acces Deschis (Open Access) distribuit în conformitate cu termenii licenței de atribuire Creative Commons CC BY SA 4.0 (https://creativecommons.org/licenses/by-sa/4.0/).

A apărut revista ”IT & C, Volumul 3, Numărul 3, Septembrie 2024”

postat în: Știri 0

Revista IT & C, Volumul 3, Numărul 3, Septembrie 2024ISSN 2821-8469 ISSN-L 2821-8469, DOI: 10.58679/IT23696. Preț: 9,99 lei
IT & C (PDF, EPUB, MOBI pentru Kindle) https://www.internetmobile.ro/revista/revista-it-c-volumul-3-numarul-3-septembrie-2024/

Revista IT & C este o publicație trimestrială din domeniile tehnologiei informației și comunicații, și domenii conexe de studiu și practică.

Cuprins:

EDITORIAL / EDITORIAL

Tools Used in AI Development – The Turing Test
Instrumente utilizate în dezvoltarea IA – Testul Turing

TEHNOLOGIA INFORMAȚIEI / INFORMATION TECHNOLOGY

Trends in the Evolution of Artificial Intelligence – Intelligent Agents
Tendințe în evoluția inteligenței artificiale – Agenți inteligenți

TELECOMUNICAȚII / TELECOMMUNICATIONS

Security in 5G Telecommunications Networks with 5G Core
Securitatea în rețelele de telecomunicații 5G cu 5G Core

PROGRAMARE / PROGRAMMING

Alignment, Explainability and Confinement as Goals of Artificial Intelligence
Alinierea, explicabilitatea și confinarea ca obiective ale inteligenței artificiale

SECURITATE CIBERNETICĂ / CYBER SECURITY

Threats of Artificial Intelligence for Cybersecurity
Amenințări ale inteligenței artificiale pentru securitatea cibernetică

1 2 3 4 29