Tagad, kad mašīnas spēj mācīties, vai tās var izkļūt no mācībām?

Andrejs Onofrenko | Getty Images

Izmanto visu veidu uzņēmumi mašīnmācīšanās Lai analizētu cilvēku vēlmes, nepatiku vai sejas. Daži pētnieki tagad uzdod citu jautājumu: kā mēs varam likt mašīnām aizmirst?

Jaunu jomu datorzinātnēs sauc par mašīnu amnēzija Tiek meklēti veidi, kā izraisīt selektīvu amnēziju Mākslīgais intelekts programmatūru. Mērķis ir no mašīnmācīšanās sistēmas noņemt visas konkrētas personas vai datu punkta pēdas, neietekmējot tās veiktspēju.

Ja jēdziens ir praktisks, tas var dot cilvēkiem lielāku kontroli pār saviem datiem un no tiem iegūto vērtību. Lai gan lietotāji faktiski var lūgt dažiem uzņēmumiem izdzēst personas datus, viņi parasti nezina, kādus algoritmus viņu informācija palīdzēja noregulēt vai apmācīt. Mācīšanās var ļaut personai atņemt savus datus un uzņēmuma iespējas to izmantot.

Tikpat pašsaprotami, kā ikviens ir secinājis tiešsaistē kopīgoto, mākslīgās amnēzijas ideja prasa dažas jaunas idejas datorzinātnēs. Uzņēmumi tērē miljoniem dolāru, apmācot mašīnmācīšanās algoritmus, lai atpazītu sejas vai ierindotu sociālos ziņojumus, jo algoritmi bieži vien var atrisināt problēmu ātrāk nekā tikai cilvēki programmētāji. Bet pēc apmācības mašīnmācīšanās sistēmu nevar viegli mainīt, vai pat saprast. Tradicionālais veids, kā novērst konkrēta datu punkta ietekmi, ir sistēmas atjaunošana no nulles – process, kas var būt dārgs. “Šī pētījuma mērķis ir atrast vidusceļu,” saka Ārons Rots, Pensilvānijas universitātes profesors, kurš ir strādājis pie mašīnmācīšanās noņemšanas. “Vai mēs varam noņemt visu personas datu ietekmi, kad viņi pieprasa dzēšanu, bet izvairīties no visām pārkvalificēšanās izmaksām no paša sākuma?”

Mašīnmācības pārtraukšanas darbu daļēji veicina pieaugošā interese par veidiem, kā AI var mazināt privātumu. Datu regulatoriem visā pasaulē jau sen ir tiesības piespiest uzņēmumus dzēst nelikumīgu informāciju. Dažu apgabalu pilsoņi, piemēram Es Un KalifornijaDrīzāk tam ir tiesības pieprasīt uzņēmumam dzēst savus datus, ja tas ir mainījis savu nostāju attiecībā uz atklāto. Nesen ASV un Eiropas regulatori teica, ka AI sistēmu īpašniekiem dažreiz ir jāsper solis uz priekšu: jāizdzēš sistēma, kas ir apmācīta par sensitīviem datiem.

READ  Android 12 funkcija ļauj atteikties no lietotņu izsekošanas

Pagājušajā gadā Apvienotās Karalistes datu regulators Brīdinājuma uzņēmumi Ka uz dažām mašīnmācīšanās programmatūrām var attiekties GDPR tiesības, piemēram, datu dzēšana, jo AI sistēma var saturēt personas datus. Drošības pētnieki ir parādījuši Algoritmus dažreiz var piespiest nopludināt sensitīvos datus, kas izmantoti to izveidošanai. Šī gada sākumā ASV Federālā tirdzniecības komisija Piespiedu palaišana Paravision sejas atpazīšanai Lai izdzēstu nepareizi iegūtu sejas attēlu kopumu un uz tiem apmācītos mašīnmācīšanās algoritmus. Federālās tirdzniecības komisāra komisārs Rohits Chopra atzinīgi novērtēja jauno izpildes taktiku kā veidu, kā piespiest uzņēmumu pārkāpt datubāzes, lai “izmantotu maldināšanas augļus”.

Mazais mašīnu lauks, kas aizmirst pētījumus, cīnās ar dažiem praktiskiem un matemātiskiem jautājumiem, ko rada šīs organizatoriskās pārmaiņas. Pētnieki ir pierādījuši, ka noteiktos apstākļos viņi var aizmirst mašīnmācīšanās algoritmus, taču tehnoloģija vēl nav gatava galvenajā laikā. “Kā parasti jaunatnes jomā, pastāv plaisa starp to, ko šī joma vēlas darīt, un to, ko mēs zinām, kā darīt tagad,” saka Rots.

Ir ierosināta viena daudzsološa pieeja 2019. gadā Pētnieki no Toronto universitātes un Viskonsinas-Madisonas universitātes ietver jaunu mašīnmācīšanās projekta avota datu atdalīšanu vairākās daļās. Pēc tam katrs tiek apstrādāts atsevišķi, pirms rezultāti tiek apvienoti galīgajā mašīnmācīšanās modelī. Ja datu punkts vēlāk ir jāaizmirst, ir jāapstrādā tikai neliela daļa sākotnējo ievades datu. Ir pierādīts, ka pieeja darbojas ar tiešsaistes iepirkuma datiem un a Vairāk nekā miljona fotoattēlu kolekcija.

Rūta un līdzstrādnieki no Pennas, Hārvardas un Stenfordas nesen Viņš parādīja šīs pieejas trūkumus, parādot, ka mācīšanās atmešanas sistēma sabruks, ja dzēšanas pieprasījumi tiks saņemti noteiktā secībā vai nu nejauši, vai ļaunprātīgi. Viņi arī parādīja, kā problēmu varētu mazināt.

READ  Super Smash Bros. Ultimate DLC ir cerība, iespējams, neskaidra

Gautams Kamaths, Vaterlo universitātes profesors, kurš arī strādā pie mācīšanās, saka, ka projekta atrastā un novērstā problēma ir piemērs daudziem atklātajiem jautājumiem par to, kā panākt, lai mašīna laboratorijā iemācītos neko vairāk kā tikai zinātkāri. . Tā bija viņa paša pētniecības grupa izpēte Cik lielā mērā tiek samazināta sistēmas precizitāte, ja tā noņem mācības vairākiem datu punktiem pēc kārtas.

Kamath ir ieinteresēts arī atrast veidus, kā uzņēmums var pierādīt – vai regulators var pārbaudīt -, ka sistēma patiešām ir aizmirsusi to, ko tai nevajadzēja iemācīties. “Šķiet, ka tas ir mazliet tālu, bet varbūt viņiem galu galā būs revidenti šādām lietām,” viņš saka.

Normatīvie iemesli, lai izpētītu mašīnmācīšanās iespēju mācīties, visticamāk, pieaugs, jo FTC un citi sīkāk aplūko algoritmu spēku. Robins Binns, Oksfordas universitātes profesors, kurš studē datu aizsardzību, saka, ka pēdējos gados gan ASV, gan Eiropā ir augusi ideja, ka indivīdiem vajadzētu izteikt savu viedokli par savu datu likteni un augļiem.

Tas prasīs radošu tehnoloģiju darbu, pirms tehnoloģiju uzņēmumi var īstenot mācīšanos, lai ļautu cilvēkiem vairāk kontrolēt savu datu skaitļošanas likteni. Līdz tam tehnoloģija var būtiski nemainīties privātuma risku ziņā mākslīgā intelekta laikmetā.

atšķirīga privātums, kas ir gudrs paņēmiens, lai noteiktu matemātiskus ierobežojumus tam, ko sistēma var noplūst no personas, un sniedz noderīgu salīdzinājumu. Šo tehnoloģiju pārspēj Apple, Google un Microsoft, taču tā tiek izmantota salīdzinoši reti, un privātuma riski joprojām ir lieli.

Lai gan tas var būt patiešām noderīgs, Baines saka: “citos gadījumos tas ir vairāk par to, ko uzņēmums dara, lai parādītu, ka tas rada jauninājumus.” Viņam ir aizdomas, ka mašīnmācīšanās novecošana var būt tāda pati, kas vairāk liecina par tehnisko izjūtu, nevis par būtiskām izmaiņām datu aizsardzībā. Pat ja mašīnas iemācās aizmirst, lietotājiem būs jāatceras, ka jābūt uzmanīgiem, ar ko viņi kopīgo datus.

READ  Zens jaunākais akumulators var izveidot bezvadu uzlādes sviestmaizi

Šis stāsts sākotnēji parādījās wired.com.

Alexis Wells

"Televīzijas speciālists. Lepna kafijas duncis. Tieksme uz apātijas lēkmēm. Interneta eksperts. Ceļojumu nindzja." <pre id="tw-target-text" class="tw-data-text tw-text-large XcVN5d tw-ta" data-placeholder="Translation"></pre>

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *

Back to top