Tehisintellekt ja eetika Google näitel

Eetika ning erinevad käitumisreeglid on tehnoloogia arenguga kindlasti muutunud. Eetikanorme peaks järgima tehnoloogia abil suhtlevad inimesed avalikus või privaatses ruumis ja tehnoloogilisi lahendusi pakkuvad ettevõtted. Kuivõrd on sellised reeglid osaliselt universaalsed, sõltuvad need palju ka kultuurilistest eripäradest ehk ruumist, mis neid norme järgiva inimese ümber hetkel on. Kuid näiteks internet toob selle jaoks täiesti uue ruumi, kuhu võivad kokku sattuda mitme erineva tausta ning kommetega inimesed. Ja kuidas võiks sellesse konteksti sobituda näiteks tehisintellekt? Kes sätestab tehisintellekti poolt järgitavad eetikareeglid?

Loogiliselt võttes arendab tehisintellekti ikkagi inimene, seega selliste lahenduste eetilisus sõltub seda arendavate inimeste ettekirjutistest. Google AI näitel saab vaadata mõningaid selliseid nüansse, mis võiksid olla tehisintellekti eetilisuse osas olulised. Esimene oluline punkt nende põhimõtetes on, et AI peaks tooma ühiskonnale terviklikult kasu.[1] Selliste tehnoloogiate arendamine tekitab inimestes tihti küsimusi, kui turvaline see on, kui kasulik see on ning mis võib tehisintellektiga juhtuda tulevikus („kas masinad võtavad maailma üle“). Google sõnastab AI arengut nii, et selle sotsiaalsed ja majanduslikud aspektid peaksid igas mõttes üle kaaluma ettenähtavad riskid ning kitsaskohad.[1] See väljendab selgesti, et kuigi kõiki sellise tehnoloogia riske ei saa sajaprotsendiliselt maandada, peaks siiski selle kasutegur kaaluma üle võimaliku kahju.

Lisaks tuuakse näiteks välja, et Google AI algoritmid üritavad täielikult vältida sotsiaalseid eelarvamusi ning diskrimineerimist rassi, soo, rahvuse, sissetuleku, seksuaalse orientatsiooni jne põhjal.[1] Iseenesest on see väga positiivne aspekt tehisintellekti puhul – erinevalt inimeste vahelisest suhtlusest on tehisintellektiga selliseid asju täiesti võimalik vältida. Ja kui seda on võimalik AI puhul mingis valdkonnas rakendada, on selliste põhimõtete järgimine kindlasti väga teretulnud.

Lisaks muudele aspektidele toob Google välja ka mõned valdkonnad, milles nad tehisintellekti kasutama ei hakka – näiteks relvastus, spionaaž ja ebaseaduslik andmete kogumine.[1] Siit võib mõista, et nende arendatav tehnoloogia ei peaks looma platvorme suurema kahju tekitamiseks või olema kuidagi ebamoraalne. Kuigi siinkohal on ka oluline roll seadusandlusel selle kõrval – näiteks isikuandmete massiline koondamine on seadusepiires täiesti lubatav, kuid jääb küsimus, kui eetiline see tegelikult on?

Erinevate eetiliste käsitluste järgi sarnanevad need põhimõtted minu arvates kõige rohkem otsese utilitarismiga, mis sätestab, et tegu on õige on siis, kui sellega kaasneb kõigile summaarselt kõige rohkem kasu.[2] Google teadvustab kindlasti võimalikke riske, kuid üritab neid kontrollides luua pigem kasutoovaid lahendusi. Tehisintellekti abil on kindlasti võimalik "maailma muuta paremaks paigaks" ning lahendada suuri probleeme, kuid sellegipoolest tuleb selle kasutamisel olla ettevaatlik. Selliste tehnoloogiate arendamine on realiseeritav ka halbade motiivide täitmiseks. Nii nagu ka Google on teinud, on kindlasti suurematel tehisintellekti arendajatel minu meelest kohustuslik välja tuua need põhimõtted, mida AI arendamisel järgitakse ning see nende loomisprotsess peaks olema läbipaistev ja kontrollitav.






[1] https://ai.google/principles/
[2] https://wiki.itcollege.ee/index.php/E-ITSPEA_15:_Eetika_ja_IT

Kommentaarid

Populaarsed postitused sellest blogist

Copyleft litsentsid ja nende klauslid

Hacker-HOWTO - arvustus

Rühmatöö arvustus – Low-code ja no-code programmeerimine