“60 minūtes” sniedza šokējoši nepatiesu apgalvojumu par Google AI tērzēšanas robotu

Kopš OpenAI pasaulē izplatīja ChatGPT, mēs esam redzējuši, ka tas aizņem cilvēkus, kuriem jūs pat neticētu. Daži cilvēki ir apgalvojuši, ka tērzēšanas robotiem ir pamodusies darba kārtība. ASV senators Kriss Mērfijs tviterī paziņoja, ka ChatGPT “mācīja” progresīvu ķīmiju. Pat pieredzējuši tehnoloģiju žurnālisti ir rakstījuši stāstus par to, kā tas darbojas Tērzēšanas robots viņus iemīlēja. Šķiet, ka pasaule reaģē uz mākslīgo intelektu tāpat kā alu cilvēki, kad pirmo reizi ieraudzīja uguni: ar pilnīgu apjukumu un nesakarīgu pļāpāšanu.

Viens no jaunākajiem piemēriem nāk no 60 minūtes, kurš iemeta savu balsi ringā ar jaunu sēriju, kas vērsta uz jauninājumiem mākslīgajā intelektā un kas tika pārraidīta CBS svētdienā. Sērijā bija intervijas ar Sundar Pichai, Google izpilddirektors, un tika iekļauts apšaubāms saturs. Pretenzijas par vienu no uzņēmuma lielajiem valodas modeļiem (LLM).

Segments ir par jaunu uzvedību, kas apraksta neparedzētu AI sistēmas blakusefektu, ko modeļa izstrādātāji ne vienmēr bija iecerējuši. Mēs jau esam redzējuši, ka citos nesenajos AI projektos parādās jauna uzvedība. Piemēram, pagājušajā nedēļā tiešsaistē publicētajā pētījumā pētnieki nesen izmantoja ChatGPT, lai izveidotu digitālas personas ar mērķiem un pieredzi. Viņi atzīmē, ka sistēma veic dažādas jaunas darbības, piemēram, apmainās ar jaunu informāciju no viena varoņa uz otru un pat veido attiecības vienam ar otru – kaut ko autori sākotnēji nebija plānojuši sistēmai.

Jaunā uzvedība noteikti ir vērtīga tēma, ko apspriest ziņu programmā. kur ir 60 minūtes Tomēr videoklipam ir pagrieziens, kad mēs uzzinām par apgalvojumiem, ka Google tērzēšanas robots pēc tam, kad tika jautāts šajā valodā, patiešām varēja iemācīt sev valodu, ko tas iepriekš nezināja. “Piemēram, viena Google AI programma pielāgojās pati pēc tam, kad tai tika pavēlēts to darīt Bangladešas valodā, kuru tā nebija apmācīta zināt,” videoklipā sacīja CBS News reportieris Skots Pellijs.

READ  Ko sagaidīt no jaunā Pixel 8 un Watch 2

Izrādās, viņa bija pilnīga BS. Robots ne tikai nevarēja iemācīties svešvalodu, ko tas “nekad nav apmācījis zināt”, bet arī nekad neiemācīja sev jaunas prasmes. Viss klips pamudināja AI pētniekus un ekspertus kritizēt ziņu šova maldinošo kadru vietnē Twitter.

“Es noteikti ceru, ka daži žurnālisti pārskatīs visu @60Minute segmentu pakalpojumā Google Bard kā gadījuma izpēti par to, kā *neatklāt* AI,” sacīja Melānija Mičela, mākslīgā intelekta pētniece un Santafē institūta profesore. viņš rakstīja tviterī.

“Beidziet domāt maģiski par tehnoloģijām! #AI nevar reaģēt bengāļu valodā, ja vien apmācības dati nav piesārņoti ar bengāļu valodu vai apmācīti valodā, kas pārklājas ar bengāļu valodu, piemēram, asamiešu, oriju vai hindi,” Ms. Alekss O. pētnieks Masačūsetsas Tehnoloģiju institūtā, Pievienots citā ierakstā.

Ir vērts atzīmēt 60 minūtes Klipā nebija precīzi pateikts, kādu AI viņi izmantoja. Tomēr CBS pārstāvis laikrakstam The Daily Beast sacīja, ka segments nebija diskusija par Bardu, bet gan atsevišķa mākslīgā intelekta programma ar nosaukumu PaLM, kuras pamattehnoloģija vēlāk tika integrēta Bardā.

Iemesli, kāpēc šī daļa ir tik ļoti nomākta šiem ekspertiem, ir tā, ka tā ignorē un spēlējas ar to, ko ģeneratīvais AI faktiski var paveikt. Tā nevar “iemācīt” sev valodu, ja tai nav piekļuves tai pirmajā vietā. Tas būtu kā mēģināt iemācīt sev mandarīnu valodu, bet jūs to dzirdējāt tikai pēc tam, kad kāds jums vienu reizi jautāja mandarīnu valodu.

Galu galā valoda ir neticami sarežģīta — ar niansēm un noteikumiem, kuru izpratnei un saziņai ir nepieciešams neticami liels konteksts. Pat vismodernākā LLM nevar to visu apstrādāt un apgūt, izmantojot dažas uzvednes.

PaLM jau ir apmācīts ar bengāļu valodu, kas ir dominējošā Bangladešas valoda. Mārgareta Mičela (nav saistību), AT HuggingFace starta laboratorijas pētniece un agrāk Google, to paskaidroja Tvīta tēma Izsakiet argumentu, kāpēc 60 minūtes bija nepareizi.

READ  Labākie Cyber ​​​​Monday klēpjdatoru piedāvājumi: MacBook, Lenovo, Dell un HP

Mičels atzīmēja, ka 2022. gada demonstrācijā Google parādīja, ka PaLM var sazināties un reaģēt uz uzvednēm bengāļu valodā. uz Papīrs aiz PaLM Datu lapā tika atklāts, ka modelis faktiski tika apmācīts valodā ar aptuveni 194 miljoniem simbolu bengāļu alfabētā.

Tāpēc viņš maģiski neko neuzzināja, izmantojot vienu uzvedni. Viņš jau zināja valodu.

Nav skaidrs, kāpēc Google izpilddirektors Pichai pieteicās uz interviju un ļāva šīm apsūdzībām turpināties bez iebildumiem. (Google neatbildēja uz komentāru pieprasījumiem.) Kopš epizodes pārraidīšanas viņš ir klusējis, neskatoties uz to, ka eksperti norādīja uz klipā izteiktajiem maldinošajiem un nepatiesajiem apgalvojumiem. Twitter vietnē Mārgareta Mičela Priekšlikums Iemesls tam varētu būt tas, ka Google vadītāji nezina, kā darbojas viņu produkti, kā arī tas, ka tas ļauj izplatīt sliktu ziņojumapmaiņu, lai novērstu pašreizējo ažiotāžu ap ģeneratīvo AI.

“Man ir aizdomas [Google executives] Es burtiski nesaprotu, kā tas darbojas, Mičel čivināt. “Tas, ko es rakstīju iepriekš, viņiem, visticamāk, ir jaunums. Un viņi ir motivēti nesaprast (RUNĀ ACIS UZ ŠO DATU LAPU!!).”

Videoklipa otro pusi var uzskatīt arī par problemātisku, jo Pichai un Billy apspriež Bārda radīto īso stāstu, kas “izklausījās ļoti cilvēciski”, atstājot abus vīriešus nedaudz satricinātus.

Patiesība ir tāda, ka šie produkti nav maģija. Viņi nespēj būt “cilvēki”, jo viņi nav cilvēki. Tie ir teksta prognozētāji, piemēram, tie, kas ir jūsu tālrunī, un tie ir apmācīti pēc virknes vārdu frāzēs izdomāt visticamākos vārdus un frāzes. Sakot, ka viņi eksistē, viņi var dot tādu varas līmeni, kas varētu būt neticami bīstams.

Galu galā lietotāji var izmantot šīs ģeneratīvās AI sistēmas, piemēram, lai izplatītu dezinformāciju. Mēs jau esam redzējuši, kā tas manipulē ar cilvēku līdzībām un pat viņu balsīm.

READ  Snapdragon apgalvo, ka tā jaunais X Elite procesors pārspēs Apple un Intel

Pat tērzēšanas robots pats par sevi var nodarīt kaitējumu, ja tas galu galā rada neobjektīvus rezultātus — to mēs jau esam redzējuši, piemēram, ChatGPT un Bard. Zinot šo tērzēšanas robotu tieksmi halucinēt un izdomāt rezultātus, tie var izplatīt dezinformāciju nenojaušajiem lietotājiem.

To apliecina arī pētījumi. Nesen veikts pētījums Ievietots Zinātniskie ziņojumi Viņš atklāja, ka cilvēku atbildes uz ētiskiem jautājumiem var viegli ietekmēt ChatGPT argumenti, un pat lietotāji ļoti zemu novērtēja, cik ļoti viņus ietekmēja robotprogrammatūra.

Maldinoši apgalvojumi par 60 minūtes Tas patiešām ir tikai simptoms lielākai nepieciešamībai pēc digitālās pratības laikā, kad mums tā ir visvairāk vajadzīga. Daudzi AI eksperti saka, ka tagad vairāk nekā jebkad agrāk ir pienācis laiks, kad cilvēkiem ir jāapzinās, ko AI var un ko nevar darīt. Šie pamata fakti par robotiku ir arī efektīvi jādara zināmi plašākai sabiedrībai.

Tas nozīmē, ka cilvēkiem ar lielākajām platformām un skaļākajām balsīm (piemēram, plašsaziņas līdzekļiem, politiķiem un Big Tech vadītājiem) ir vislielākā atbildība, lai nodrošinātu drošāku un izglītotāku AI nākotni. Ja mēs to nedarīsim, mēs varētu beigties tāpat kā iepriekš minētie alu cilvēki, spēlējoties ar uguns burvību un šajā procesā apdedzināties.

Alexis Wells

"Televīzijas speciālists. Lepna kafijas duncis. Tieksme uz apātijas lēkmēm. Interneta eksperts. Ceļojumu nindzja." <pre id="tw-target-text" class="tw-data-text tw-text-large XcVN5d tw-ta" data-placeholder="Translation"></pre>

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *

Back to top