Este societatea pregătită ca inteligența artificială să ia decizii de natură etică?

©

Autor:

Este societatea pregătită ca inteligența artificială să ia decizii de natură etică?
În cadrul unui nou studiu al cercetătorilor de la Universitatea Hiroshima, oamenii de știință au analizat opinia oamenilor în legătură cu inteligența artificială și capacitatea acesteia de a lua decizii etice prin intermediul a două experimente la care au participat în total 1.102 persoane.
Într-unul dintre experimente, echipa japoneză a prezentat unui grup de 529 de persoane un scenariu ipotetic, bazat pe situația în care șoferul unei mașini ar avea de ales ca, în trafic, să provoace un accident cu victime intrând cu aceasta în unul dintre cele două grupuri de persoane exemplificate, astfel salvând viața celor din grupul pe care nu l-ar alege. Experimentul a fost realizat pentru a compara potențialele alegeri ale persoanelor care au participat la studiu cu deciziile pe care le-ar lua un program bazat pe inteligență artificială.

În schimb, în cel de-al doilea experiment oamenii de știință au propus un exercițiu de imaginație în care persoanele care au participat la studiu au trebuit să aleagă dintre două scenarii politice, primul reprezentând o situație ipotetică în care un guvern a decis ca inteligența artificială să poată fi implementată în mod legal în autoturisme. Pe de altă parte, celălalt scenariu presupunea un sistem de votare în care populația să decidă capacitatea acestor sisteme de a lua decizii în trafic, cele două scenarii fiind propuse de echipă astfel încât să reiasă care ar fi o modalitate mai bună de a introduce inteligența artificială în societate.

Rezultatele arată că majoritatea participanților au marșat spre ideea ca un șofer uman să decidă dintre două grupuri în care ar trebui să intre, involuntar, cu mașina, neavând încredere deplină în inteligența artificială. Conform specialiștilor, acest fenomen este datorat faptului că societatea, în ansamblul ei, nu dorește unanim implementarea acestei tehnologii în viața de zi cu zi. Cu toate acestea, atunci când persoanele care au fost chestionate au fost rugate să încerce să diferențieze opinia lor de cea generală a oamenilor, balanța tindea să se echilibreze, iar inteligența artificială dobândea mai multă încredere din partea acestora.

În plus, un alt factor de care depinde încrederea oamenilor în aceste sisteme este direct proporțională cu încrederea acestora în guvernele proprii, astfel că persoanele din anumite regiuni în care oamenii nu au încredere în acesta au avut tendința să dea răspunsuri predominant negative.

sursa: Science Daily
foto: JackyLeung/Getty Images via Canva.com

Data actualizare: 07-06-2022 | creare: 07-06-2022 | Vizite: 238
Bibliografie
AI ethical decision making: Is society ready?, link: https://www.sciencedaily.com/releases/2022/06/220603124906.htm
©

Copyright ROmedic: Articolul se află sub protecția drepturilor de autor. Reproducerea, chiar și parțială, este interzisă!

Alte articole din aceeași secțiune:

Din Ghidul de sănătate v-ar putea interesa și:
  • Algoritm dezvoltat de Google care detectează riscul cardiovascular din analiza ochilor
  • Algoritmul care redă modul în care creierul percepe fețele
  • Software inteligent pentru diagnosticarea cancerului de prostată
  •  
     
     
    Accept cookies Informare Cookies Site-ul ROmedic.ro foloseşte cookies pentru a îmbunătăţi experienţa navigării, a obține date privind traficul și performanța site-ului și a livra publicitate mai eficient.
    Găsiți informații detaliate în Politica cookies și puteți gestiona consimțământul dvs din Setări cookies.