Pereiti į pagrindinį turinį

JAV tyrėjai ragina griežčiau reguliuoti dirbtinio intelekto technologijas

2019-12-12 15:59

Dirbtinis intelektas (DI) veikiausiai „didina nelygybę“ visuomenėje, o jo naudojimui turėtų būti taikomi griežti reguliavimai ir apribojimai, ypač kalbant apie tokias jautrias technologijas kaip veidų atpažinimas, rašoma ketvirtadienį paskelbtoje JAV tyrėjų ataskaitoje.

Asociatyvi nuotr.
Asociatyvi nuotr. / Pixabay nuotr.

Niujorko universiteto institutas  „AI Now“ tiriantis dirbtinio intelekto naudojimo socialinius padarinius, priėjo išvadą, kad plačiai diegiant šias technologijas aiškėja neigiamas jų poveikis.

93 puslapių ataskaitoje nagrinėjami susirūpinimą keliantys klausimai: „nuo darbuotojų valdymo pasitelkiant DI iki išmokų ir socialinių paslaugų nustatymo per algoritmus, imigrantų ir nepakankamai atstovaujamų bendruomenių stebėjimo ir sekimo“, rašo tyrėjai.

„Aiškėja, kad įvairiose srityse ir aplinkose DI didina nelygybę, perduodamas informaciją ir kontrolę tiems, kas jau turi valdžią, ir dar labiau silpnina tuos, kurie jos neturi“, – sakoma dokumente.

Tyrėjų teigimu,  tokiose srityse kaip sveikatos apsauga, švietimas, užimtumas ir teisėsauga DI sistemos diegiamos „nesant tinkamų apsaugos priemonių ar atskaitomybės mechanizmų“.

Ataskaitos autoriai ragina vyriausybes ir įmones nebenaudoti veidų atpažinimo technologijų „jautriose socialinėse ir politinėse situacijose“, kol bus geriau suprantama esama rizika. Pasak jų, „afekto atpažinimas“ – kitaip tariant, emocijų įvertinimas pasitelkiant kompiuterines technologijas – apskritai turėtų būti uždraustas, nes šios technologijos veiksmingumas labai abejotinas.

Emocijų atpažinimui „neturėtų būti leista atlikti svarbaus vaidmens priimant sprendimus dėl žmogaus gyvenimo, pavyzdžiui, jam dalyvaujant darbo pokalbyje ar įsidarbinant, nustatant draudimo kainą, paciento skausmo lygį ar įvertinant mokinio pažangumą mokykloje“, rašoma ataskaitoje.

Be to, tyrėjai ragina suteikti IT sektoriaus darbuotojams „teisę žinoti, ką jie kuria, ir priešintis neetiškam arba žalingam jų darbo panaudojimui“.

„AI Now“ ataskaitoje nurodoma, kad medicinos organizacijos, naudojančios pažangiausias technologijas, turi įgyvendinti duomenų apsaugos politiką ir suteikti žmonėms galimybę pasitraukti iš tyrimų ar gydymo procedūrų, kuriuose naudojama jų informacija apie jų sveikatos būklę.

Žvelgiant plačiau, tyrėjai ragina DI pramonę imtis „struktūrinių pokyčių“, kad būtų užtikrinta, jog algoritmai neįtvirtins rasizmo, išankstinio nusistatymo ar socialinės įvairovės stygiaus.

„DI pramonė yra akivaizdžiai homogeniška, visų pirma atsižvelgiant į jos požiūrį į moteris, nebaltuosius žmones, lytines mažumas ir kitas nepakankamai atstovaujamas grupes“, – teigiama ataskaitoje.

Joje priduriama, kad nors dedamos pastangos reguliuoti DI sistemas, šias pastangas pakerta faktas, kad pačios pačios „vyriausybės diegia DI sistemas stebėjimui ir kontrolei“.

„Nepaisant intensyvėjančio visuomenės susirūpinimo ir reguliavimo veiksmų, veido atpažinimo ir kitų rizikingų DI technologijų diegimas beveik nesulėtėjo“, – rašo tyrėjai.

„Vadinamieji „išmaniųjų miestų“ projektai visame pasaulyje sutelkia įtaką piliečių gyvenimui pelno siekiančių technologijų įmonių rankose, leisdami joms valdyti svarbiausius išteklius ir informaciją“.

Naujausi komentarai

Komentarai

  • HTML žymės neleidžiamos.

Komentarai

  • HTML žymės neleidžiamos.
Atšaukti
Komentarų nėra
Visi komentarai (0)

Daugiau naujienų