Kaspersky Lab - Vislabākā aizsardzība, lieliskas cenas!
Sākumlapa » Pārskati » Mašīnmācīšanās: 9 problēmas

Mašīnmācīšanās: 9 problēmas

Nākotnē, iespējams, viss būs lieliski, taču pašlaik mākslīgais intelekts (MI) rada dažus jautājumus, un visbiežāk tie ir saistīti ar morāli un ētiku. Ar ko mašīnmācīšanās mūs jau ir pārsteigusi? Vai varam piemānīt skaitļošanas mašīnu (datoru), un ja varam, cik grūti tas ir? Varbūt tas viss beigsies ar Skynet un „mašīnu sacelšanos” — kā Terminatora filmās? Pameklēsim atbildes.

 

 

Spēcīgais un vājais mākslīgais intelekts

Pirmkārt, mums ir jādiferencē divi jēdzieni: spēcīgs mākslīgais intelekts (MI) un vājš MI. Spēcīgs MI ir hipotētiska skaitļošanas mašīna, kas spēj domāt un apzinās savu eksistenci. Tas var ne tikai atrisināt noteiktus uzdevumus, bet arī iemācīties kaut ko jaunu.

Vājais MI jau eksistē. Tās ir programmas, kas paredzētas konkrētu uzdevumu veikšanai, piemēram, attēlu atpazīšanai, automašīnas vadīšanai, Go spēlēšanai utt. Vājais MI ir tas, ko mēs dēvējam par „mašīnmācīšanos”.

Mēs vēl nezinām, vai spēcīgais MI vispār ir iespējams. Aptaujātie eksperti uzskata, ka mums jāgaida vēl 45 gadi. Tas tiešām nozīmē ilgu gaidīšanu. Piemēram, mūsdienās eksperti apgalvo, ka kodolsintēzes enerģiju sāks komerciāli izmantot nākamo 40 gadu laikā — un tieši to pašu eksperti solīja arī pirms 50 gadiem.

 

Kas varētu aiziet greizi?

Joprojām nav skaidrs, kad tiks izveidots spēcīgais MI, bet vājais MI jau ir un tiek plaši izmantots daudzās nozarēs. Tādu nozaru skaits pieaug ar katru gadu. Mašīnmācīšanās ļauj risināt praktiskus uzdevumus bez programmēšanas, jo mākslīgais intelekts mācās no piemēriem.

Mēs apmācām skaitļošanas mašīnas risināt konkrētas problēmas, lai iegūtais matemātiskais modelis, ko mēs saucam par „mācīšanās” algoritmu, nevarētu pēkšņā neprāta lēkmē izdomāt, ka vajadzētu paverdzināt (vai izglābt) cilvēci. Citiem vārdiem sakot, nevajag baidīties, ka vājais MI varētu kļūt par Skynet. Bet tik un tā ir iespējamas dažādas kļūmes.

1. Ļauni nodomi

Vai būs ētiski, ja ar mašīnmācīšanās palīdzību iemācīsim bezpilota lidaparātu jeb dronu armijai nogalināt cilvēkus?

 

 

Sakarā tieši ar šo tēmu izcēlās neliels skandāls. Uzņēmums Google izstrādā programmatūru militārajam projektam Maven, kurā tiek izmantoti droni. Nākotnē tas ļautu izveidot pilnīgi autonomas ieroču sistēmas.

Protestējot pret to, 12 Google darbinieki aizgāja no darba, un vēl 4000 parakstīja petīciju ar prasību, lai uzņēmums lauž šo līgumu ar armiju. Vairāk nekā 1000 pazīstamu MI, ētikas un IT nozares zinātnieku uzrakstīja atklātu vēstuli uzņēmumam Google, pieprasot, lai tas atsakās no šī projekta un atbalsta starptautisku līgumu, ar kuru tiktu aizliegti autonomie ieroči.

2. Izstrādātāju privātās intereses

Pat tad, ja mašīnmācīšanās algoritma izstrādātāji nerīkojas ar ļaunu nodomu, daudzi no viņiem vēlas pelnīt naudu, proti, viņu algoritmi var tikt izveidoti tā, lai dotu labumu izstrādātājiem, un šis labums ne vienmēr nozīmē labumu sabiedrībai. Daži medicīnas algoritmi, piemēram, var ieteikt dārgākas ārstēšanas procedūras, nevis tādas, kas nodrošina labākos rezultātus pacientam.

Dažreiz arī pati sabiedrība nav ieinteresēta, lai algoritms simtprocentīgi atbilstu morāles normām. Piemēram, ir nepieciešams kompromiss starp automašīnu ātrumu ceļu satiksmē un autoavāriju izraisītas mirstības rādītājiem. Mēs varētu ierobežot autonomo automobiļu braukšanas ātrumu ar 15 jūdzēm stundā (25 km/h), tādējādi pilnībā novēršot cilvēku bojāeju satiksmes negadījumos, bet tad vairs nebūtu liela jēga braukt ar automašīnu.

3. Sistēmas parametros ne vienmēr ņem vērā ētiku

Dators pats nezina un nevar zināt, kas ir ētika. Algoritms var sastādīt valsts budžetu, apvienojot dažādus mērķus — „maksimizēt IKP / darba ražīgumu / paredzamo dzīves ilgumu”, bet, ja to visu bez ētikas ierobežojumiem ieprogrammētu matemātiskajā modelī, tas likvidētu budžeta asignējumus skolām, slimnīcām un vides aizsardzībai, jo nekas no iepriekš minētā tieši nepalielina IKP.

Ja vēl paplašinātu mērķa sasniegšanas robežas, tad tas varētu palielināt darba ražīguma rādītājus, likvidējot visus, kuri nav darbaspējīgi.

Tātad jau pašā sākumā ir jāiekļauj ētikas nosacījumi.

4. Ētiska relativitāte

Laika gaitā ētika mainās, un dažreiz šīs pārmaiņas ir straujas. Piemēram, uzskati par tādām problēmām kā LGBT tiesības, laulība starp dažādu rasu vai kastu pārstāvjiem, var būtiski mainīties vienas paaudzes dzīves laikā.

Ētikas principi var atšķirties dažādām iedzīvotāju grupām vienas valsts robežās, nemaz nerunājot par dažādām valstīm. Piemēram, Ķīnā par normu ir kļuvusi datorizēta sejas atpazīšana masveida uzraudzības nolūkos. Citās valstīs var par šo jautājumu var būt atšķirīgs viedoklis, un lēmums var būt atkarīgs no konkrētās situācijas.

 

 

Svarīga ir arī politiskā gaisotne. Piemēram, daudzās valstīs daudzas ētikas normas un ideālus ievērojami un neticami ātri mainīja karš pret terorismu.

5. Mašīnmācīšanās maina cilvēkus

Tikai viens MI piemērs, kas tieši ietekmē cilvēkus: mašīnmācīšanās sistēmas iesaka jums jaunās filmas, pamatojoties uz jūsu vērtējumiem par citām filmām un salīdzinot jūsu vēlmes ar citu lietotāju vēlmēm. Dažas sistēmas diezgan labi tiek galā ar šo uzdevumu.

Filmu ieteikšanas sistēma pamazām maina jūsu vēlmes un tās sašaurina. Bez tās jūs varbūt dažreiz izvēlētos sliktu filmu vai tāda žanra filmu, kāds jums nemaz nepatīk. Ar MI palīdzību ikviena izraudzītā filma atbilst jūsu vēlmēm. Galu galā jūs pats vairs neko nemeklējat, bet patērējat tikai to, ko jums piedāvā.

Interesanti, kā mēs paši nemaz nepamanām to brīdi, kad algoritmi sāk pieņemt lēmumus mūsu vietā. Piemērs ar filmām nav tik briesmīgs, bet ņemiet vērā, ka tas pats notiek ar ziņām un propagandu.

6. Aplamas korelācijas

Aplama korelācija izveidojas, kad lietas, kas ir pilnīgi neatkarīgas viena no otras, uzrāda ļoti līdzīgu izturēšanos, un tādējādi var radīt iespaidu, ka tās ir kaut kādā veidā saistītas. Piemēram, vai zināt, ka margarīna patēriņš ASV ļoti cieši korelē ar laulības šķiršanas gadījumu skaitu Meinas štatā?

 

 

Protams, cilvēks, paļaujoties uz savu personīgo pieredzi un veselo saprātu, uzreiz pateiks, ka tiešs sakars starp abiem rādītājiem ir ārkārtīgi maz ticams. Matemātiskam modelim nevar būt šādu zināšanu — tas vienkārši mācās un vispārina datus.

Labi zināms piemērs ir kāda datorprogramma, kas šķiroja pacientus atkarībā no tā, cik steidzami viņiem vajadzīga medicīniskā palīdzība, un secināja, ka astmas slimniekiem, kuriem ir pneimonija, palīdzība nav vajadzīga tik steidzami kā pacientiem ar pneimoniju, bet bez astmas. Programma analizēja datus un secināja, ka astmas slimniekiem mazāk draud nāve, tādēļ palīdzība tiem nav tik steidzami nepieciešama. Patiesībā šādu pacientu mirstības rādītāji ir tik zemi tādēļ, ka viņiem medicīnas iestādēs vienmēr tiek sniegta steidzama palīdzība, jo viņu slimība rada lielākas nāves briesmas.

7. Atsauksmju cilpas

Atsauksmju cilpas ir vēl bīstamākas nekā aplamas korelācijas. Atsauksmju cilpa ir tāda situācija, kad algoritma lēmumi ietekmē realitāti, un šādas ietekmēšanas rezultāti, savukārt, pārliecina algoritmu, ka tā lēmumi bijuši pareizi.

Piemēram, noziedzības apkarošanas datorprogramma Kalifornijā, vadoties pēc noziedzības līmeņa datiem, lika policijai biežāk patrulēt afroamerikāņu kvartālus, jo tur bija reģistrēts visvairāk noziegumu. Šo kvartālu iedzīvotāji, biežāk sastopot policijas automašīnas, biežāk ziņoja par noziegumiem (jo bija, kam ziņot), tāpēc policisti sastādīja vairāk protokolu un ziņojumu, veicinot augstāka noziedzības līmeņa uzrādīšanu, un tas nozīmēja, ka šajos kvartālos nepieciešams patrulēt vēl biežāk.

8. Nekorekti vai „kontaminēti” atsauces dati

Algoritmiskās mācīšanās rezultāti ir ļoti atkarīgi no references datiem, kuri veido mācīšanās pamatu. Var izrādīties, ka šie dati ir nepareizi un neprecīzi vai nu nejaušības, vai ļaunprātības dēļ (otrajā gadījumā saka, ka dati ir „kontaminēti”).

Attiecīgu atsauces datu dēļ var rasties, piemēram, šāda problēma. Ja apmācības datu paraugs algoritmam, kurš veic darbinieku rekrutēšanu, ir ņemts no uzņēmuma ar rasistiskiem darbinieku rekrutēšanas principiem, tad arī šis algoritms būs rasistisks.

Microsoft reiz mācīja tērzēšanas robotam komunicēt tviterī, ļaujot visiem tvitera lietotājiem sarunāties ar šo robotu. Bet jau pēc nepilnām 24 stundām projektu nācās pārtraukt, jo interneta lietotāji ātri iemācīja robotam lamāties un citēt Mein Kampf.

 

 

Lūk, mašīnmācīšanās datu kontaminācijas piemērs. Datorvīrusu analīzes laboratorijas matemātiskais modelis katru dienu apstrādā vidēji 1 miljonu datņu, gan tīru, gan kaitīgu. Draudu aina mainās, tāpēc modeļa izmaiņas antivīrusu datu bāzu atjauninājumu veidā tiek nodotas produktiem, kas uzstādīti klientu datoros.

Hakeris var nepārtraukti ģenerēt kaitīgas datnes, kas ir ļoti līdzīgas tīrajām, un sūtīt tās laboratorijai. Šāda darbība pakāpeniski izdzēsīs atšķirību starp tīrajām un kaitīgajām datnēm, degradēs modeli un varbūt beidzot sāks pat izraisīt aplamas pozitīvās iedarbes.

 

Attēls parāda secīgus pārbaudes līmeņus failu antivīrusā.

Attēls parāda secīgus pārbaudes līmeņus Kaspersky Lab failu antivīrusā.

Tāpēc Kaspersky Lab izmanto daudzslāņu aizsardzības modeli un nepaļaujas tikai uz mašīnmācīšanos.

9. Krāpšanās

Piekrāpt var arī pareizi funkcionējošu matemātisko modeli, kurš izmanto pareizos datus, ja vien ir zināms, kā šis modelis darbojas. Piemēram, kāda pētnieku grupa izstrādāja paņēmienu, kā piekrāpt sejas atpazīšanas algoritmu, izmantojot īpašas brilles, kuras tikai minimāli izkropļoja attēlu, bet tādējādi pilnīgi mainīja rezultātus.

 

Nēsājot brilles ar speciāliem, krāsainiem ietvariem, pētnieks iemācīja sejas atpazīšanas algoritmam, ka viņš ir pilnīgi cita persona.

Nēsājot brilles ar speciāliem, krāsainiem ietvariem, pētnieks iemācīja sejas atpazīšanas algoritmam, ka viņš ir pilnīgi cita persona.

Pat šķietami vienkāršās situācijās datoru var viegli piemānīt, izmantojot metodes, par kurām nespeciālistiem nav ne jausmas.

 

Pirmās trīs ceļazīmes tiek atpazītas kā ātruma ierobežojums līdz 45 km/h, bet pēdējā — kā STOP zīme.

Pirmās trīs ceļazīmes tiek atpazītas kā ātruma ierobežojums līdz 45 km/h, bet pēdējā — kā STOP zīme.

Turklāt, lai piekrāptu mašīnmācīšanās matemātisko modeli, pārmaiņām nav jābūt nozīmīgām — pietiek ar minimālām izmaiņām, kuras cilvēks nemaz nevar pamanīt.

 

Neliels kropļojums pandas attēlā pa kreisi — un to var atpazīt kā gibonu.

Neliels kropļojums pandas attēlā pa kreisi — un to var atpazīt kā gibonu.

Kamēr cilvēki būs gudrāki par visiem algoritmiem, viņi spēs piemānīt šos algoritmus. Iedomājieties mašīnmācīšanos tuvā nākotnē, kad algoritms analizē bagāžas rentgena uzņēmumus lidostā, meklējot ieročus. Gudrs terorists ieliks noteiktas formas priekšmetu blakus pistolei un tā padarīs neredzamu pašu pistoli.

Kurš vainīgs un ko darīt

2016. gadā [ASV prezidenta] Obamas administrācijas Lielo datu darba grupa publicēja ziņojumu ar brīdinājumu par „iespējamu diskrimināciju automātiski pieņemtos lēmumos”. Šajā ziņojumā bija arī aicinājums izstrādāt tādus algoritmus, kas darbotos saskaņā ar vienādu iespēju principiem.

Bet to nav viegli īstenot.

Pirmkārt, mašīnmācīšanās matemātiskos modeļus ir grūti izmēģināt un labot. Parastās programmas mēs izvērtējam soli pa solim un zinām, kā tās izmēģināt, bet mašīnmācīšanās gadījumā viss ir atkarīgs no mācīšanās datu parauga apjoma, un tas nevar būt bezgalīgs.

Piemēram, lietotne Google Photo reizēm atpazina un marķēja afroamerikāņus kā gorillas. Nopietni! Varat iedomāties, kas tas bija par skandālu, un Google, protams, apsolīja izlabot šo algoritmu. Bet pagāja trīs gadi, un Google nespēja izdomāt neko labāku kā aizliegt attēlos marķēt jebkurus objektus kā gorillas, šimpanzes vai vispār kā pērtiķus, lai nepieļautu vecās kļūdas atkārtošanos.

Otrkārt, ir grūti izprast un izskaidrot mašīnmācīšanās algoritmu lēmumus. Neironu tīkls pats nosaka svērtos koeficientus, lai iegūtu pareizās atbildes — bet kā tas notiek? Un kas jādara, lai mainītu atbildi?

Kāds 2015. gada pētījums secināja, ka Google AdSense augsti apmaksāta darba sludinājumus sievietēm rāda daudz retāk nekā vīriešiem. Bet Amazon operatīvās preču piegādes pakalpojums bieži nav pieejams afroamerikāņu kvartālos. Abos gadījumos uzņēmumu pārstāvji nespēj izskaidrot šos lēmumus, kurus pieņem algoritmi.

Neviens nav vainīgs, tāpēc mums jāpieņem jauni likumi un jāformulē ētikas likumi robotiem. Vācija 2018. gada maijā spēra  pirmo soli šajā virzienā un publicēja ētikas noteikumus autonomajiem automobiļiem. Tajos, piemēram, ir teikts:

  • Cilvēku drošība ir svarīgāka nekā dzīvnieku vai īpašuma drošība.
  • Ja negadījumu nevar novērst, tad nav pieļaujama nekāda diskriminācija; atšķirības nedrīkst ņemt vērā.

Bet ir viens noteikums, kas īpaši svarīgs mums.

  • Autonomie transportlīdzekļi būs ētiski, ja tie izraisīs mazāk satiksmes negadījumu nekā transportlīdzekļi ar cilvēku pie stūres.

Skaidrs, ka mēs arvien vairāk paļausimies uz mašīnmācīšanās algoritmiem, jo tie var paveikt daudzus uzdevumus labāk nekā cilvēki. Tādēļ ir svarīgi neaizmirst par iepriekš minētajiem trūkumiem un problēmām, censties paredzēt visas iespējamās problēmas jau izstrādes posmā un pastāvīgi uzraudzīt algoritmu darbību, jo kļūmes mēdz atgadīties.

Ja jūs ir ieinteresējusi mākslīgā intelekta problemātika, tad BrightTALK sērijas Ask the Expert vebinārs [Ep.21] Ask the Expert: Ethics in AI ir priekš jums.

 


Birkas:
Iepriekšējais raksts
Nākošais raksts

Komentēt

Jūsu e-pasts netiks publicēts. Obligātie lauki ir iezīmēti *

*

36 + = 37

Kaspersky Lab - Vislabākā aizsardzība, lieliskas cenas!
Uz augšu