Aizvērt sludinājumu

Tehnoloģiju jomu apdraud vairāki faktori. Lietotāji baidās, piemēram, no ļaunprātīgas programmatūras vai privātuma zaudēšanas. Taču, pēc tehnoloģiju nozares ietekmīgu personību domām, mums nevajadzētu tik daudz uztraukties par pašu cilvēcisko faktoru, bet gan par tā saistību ar mākslīgo intelektu. Šī gada Pasaules ekonomikas forumā Davosā vairāku lielāko tehnoloģiju uzņēmumu vadītāji aicināja ieviest nozares likumdošanas regulējumu. Kādi ir viņu iemesli tā rīkoties?

“Mākslīgais intelekts ir viena no dziļākajām lietām, pie kuras mēs kā cilvēce strādājam. Tam ir vairāk dziļuma nekā uguns vai elektrība. sacīja Alphabet Inc izpilddirektors pagājušajā trešdienā Pasaules ekonomikas forumā. Sundar Pichai, piebilstot, ka mākslīgā intelekta regulēšanai ir nepieciešama globāla apstrādes sistēma. Arī Microsoft direktors Satja Nadella un IBM direktors Džinijs Rometijs aicina standartizēt noteikumus attiecībā uz mākslīgā intelekta izmantošanu. Pēc Nadellas domām, šodien, pirms vairāk nekā trīsdesmit gadiem, ir nepieciešams, lai ASV, Ķīna un Eiropas Savienība izveidotu noteikumus, kas noteiktu mākslīgā intelekta nozīmi mūsu sabiedrībai un pasaulei.

Atsevišķu uzņēmumu mēģinājumi izveidot savus mākslīgā intelekta ētikas noteikumus iepriekš ir saskārušies ar ne tikai šo uzņēmumu darbinieku protestiem. Piemēram, Google 2018. gadā pēc masveida pretreakcijām bija jāizstājas no slepenās valdības programmas Project Maven, kurā tika izmantota tehnoloģija, lai analizētu attēlus no militāriem droniem. Runājot par ētiskām pretrunām, kas saistītas ar mākslīgo intelektu, Stefans Houmans no Berlīnes domnīcas Stiftung Neue Verantwortung saka, ka noteikumi ir jānosaka politiskām organizācijām, nevis pašām kompānijām.

Google mājas viedais skaļrunis izmanto mākslīgo intelektu

Pašreizējam protestu vilnim pret mākslīgo intelektu ir skaidrs iemesls šādam laikam. Jau pēc dažām nedēļām Eiropas Savienībai ir jāmaina savi plāni attiecībā uz attiecīgo likumdošanu. Tas varētu ietvert, piemēram, noteikumus par mākslīgā intelekta attīstību tā dēvētajās augsta riska nozarēs, piemēram, veselības aprūpē vai transportā. Saskaņā ar jaunajiem noteikumiem, piemēram, uzņēmumiem pārredzamības ietvaros būtu jādokumentē, kā tie veido savas AI sistēmas.

Saistībā ar mākslīgo intelektu jau iepriekš parādījušies vairāki skandāli - viens no tiem ir, piemēram, Cambridge Analytica afēra. Amazon uzņēmumā darbinieki noklausījās lietotājus ar digitālā asistenta Alexa starpniecību, un pagājušā gada vasarā atkal izcēlās skandāls saistībā ar to, ka uzņēmums Google – pareizāk sakot platforma YouTube – ievāca datus par bērniem, kuri nav sasnieguši vecumu. no trīspadsmit gadiem bez vecāku piekrišanas.

Lai gan daži uzņēmumi par šo tēmu klusē, saskaņā ar viceprezidenta Nikola Mendelsona paziņojumu Facebook nesen izveidoja savus noteikumus, kas līdzīgi Eiropas GDPR regulai. Mendelsons savā paziņojumā norādīja, ka tas ir rezultāts Facebook centieniem panākt globālu regulējumu. Kīts Enraits, kurš uzņēmumā Google ir atbildīgs par privātumu, nesen notikušajā konferencē Briselē sacīja, ka uzņēmums šobrīd meklē veidus, kā samazināt apkopojamo lietotāju datu apjomu. "Taču plaši izplatītais populārais apgalvojums ir tāds, ka tādi uzņēmumi kā mūsējais cenšas savākt pēc iespējas vairāk datu," viņš arī norādīja, piebilstot, ka tādu datu glabāšana, kas lietotājiem nesniedz nekādu vērtību, ir riskanti.

Šķiet, ka regulatori jebkurā gadījumā nenovērtē par zemu lietotāju datu aizsardzību. ASV pašlaik strādā pie federālajiem tiesību aktiem, kas līdzīgi GDPR. Pamatojoties uz tiem, uzņēmumiem būtu jāsaņem klientu piekrišana, lai sniegtu savus datus trešajām personām.

Siri FB

Avots: Bloomberg

.