joi, mai 23, 2024
ACTUALITATENoam Chomsky: Promisiunea falsă a ChatGPT

Noam Chomsky: Promisiunea falsă a ChatGPT

Știm din știința lingvisticii și din filosofia cunoașterii că mințile inteligenței artificiale diferă profund de modul în care oamenii raționează și folosesc limbajul. Aceste diferențe impun limitări semnificative asupra a ceea ce pot face aceste programe, codificându-le cu defecte de neșters.

Jorge Luis Borges a scris cândva că a trăi într-o perioadă de mari pericole și promisiuni înseamnă să trăiești atât tragedia, cât și comedia, cu “iminența unei revelații” în înțelegerea noastră și a lumii. Astăzi, progresele noastre presupus revoluționare în materie de inteligență artificială sunt, într-adevăr, un motiv atât de îngrijorare, cât și de optimism. Optimism, deoarece inteligența este mijlocul prin care rezolvăm problemele. Îngrijorare pentru că ne temem că cea mai populară și mai la modă tulpină a inteligenței artificiale – învățarea automată – ne va degrada știința și ne va înjosi etica prin încorporarea în tehnologia noastră a unei concepții fundamental eronate despre limbaj și cunoaștere.

ChatGPT de la OpenAI, Bard de la Google și Sydney de la Microsoft sunt minuni ale învățării automate. În linii mari, acestea iau cantități uriașe de date, caută tipare în ele și devin din ce în ce mai pricepute în a genera rezultate probabile din punct de vedere statistic – cum ar fi limbajul și gândirea aparent umane. Aceste programe au fost aclamate ca fiind primele licăriri la orizontul inteligenței generale artificiale – acel moment îndelung profețit în care mințile mecanice vor depăși creierele umane nu numai din punct de vedere cantitativ în ceea ce privește viteza de procesare și dimensiunea memoriei, ci și calitativ în ceea ce privește perspicacitatea intelectuală, creativitatea artistică și orice altă facultate specific umană.

Citești și ajuți! Cumpără cartea: Cultura noastră: ce a mai rămas din ea, de Theodore Dalrymple vei contribui la susținerea libertății ideilor și implicit, a siteului R3media.

Acea zi ar putea veni, dar zorii ei nu s-au ivit încă, contrar a ceea ce se poate citi în titlurile hiperbolice și se poate socoti prin investiții nechibzuite. Revelația borgesiană a înțelegerii nu a avut și nu va avea loc – și, susținem noi, nu poate avea loc – dacă programele de învățare automată precum ChatGPT continuă să domine domeniul inteligenței artificiale. Oricât de utile ar fi aceste programe în anumite domenii restrânse (pot fi utile în programarea calculatoarelor, de exemplu, sau în sugerarea de rime pentru versuri ușoare), știm din știința lingvisticii și din filosofia cunoașterii că ele diferă profund de modul în care oamenii raționează și folosesc limbajul. Aceste diferențe impun limitări semnificative asupra a ceea ce pot face aceste programe, codificându-le cu defecte de neșters.

Este în același timp comic și tragic, așa cum ar fi putut observa Borges, faptul că atât de mulți bani și atâta atenție ar trebui să se concentreze asupra unui lucru atât de mărunt – ceva atât de banal când este pus în contrast cu mintea umană, care, prin intermediul limbajului, în cuvintele lui Wilhelm von Humboldt, poate face “o utilizare infinită a mijloacelor finite”, creând idei și teorii cu acoperire universală.

Mintea umană nu este, ca ChatGPT și alții ca el, un motor statistic greoi pentru potrivirea modelelor, care se înfruptă din sute de terabytes de date și extrapolează cel mai probabil răspuns la o conversație sau cel mai probabil răspuns la o întrebare științifică. Dimpotrivă, mintea umană este un sistem surprinzător de eficient și chiar elegant, care operează cu cantități mici de informații; nu caută să deducă corelații brute între punctele de date, ci să creeze explicații.

De exemplu, un copil mic care dobândește o limbă dezvoltă – în mod inconștient, automat și rapid, pornind de la date minuscule – o gramatică, un sistem stupefiant de sofisticat de principii și parametri logici. Această gramatică poate fi înțeleasă ca o expresie a “sistemului de operare” înnăscut, instalat genetic, care îi înzestrează pe oameni cu capacitatea de a genera propoziții complexe și trenuri lungi de gândire. Atunci când lingviștii caută să dezvolte o teorie pentru a explica de ce o anumită limbă funcționează așa cum funcționează (“De ce sunt considerate gramaticale aceste propoziții – dar nu și acelea?”), ei construiesc în mod conștient și laborios o versiune explicită a gramaticii pe care copilul o construiește instinctiv și cu o expunere minimă la informații. Sistemul de operare al copilului este complet diferit de cel al unui program de învățare automată.

Într-adevăr, astfel de programe sunt blocate într-o fază preumană sau non-umană a evoluției cognitive. Defectul lor cel mai profund este absența celei mai critice capacități a oricărei inteligențe: să spună nu numai ce este cazul, ce a fost cazul și ce va fi cazul – aceasta este descrierea și predicția -, ci și ce nu este cazul și ce ar putea și nu ar putea fi cazul. Acestea sunt ingredientele explicației, marca adevăratei inteligențe.

Iată un exemplu. Să presupunem că țineți un măr în mână. Acum dați drumul la măr. Observați rezultatul și spuneți: “Mărul cade”. Aceasta este o descriere. O predicție ar fi putut fi afirmația “Mărul va cădea dacă deschid mâna”. Ambele sunt valoroase și ambele pot fi corecte. Dar o explicație este ceva mai mult: Ea include nu numai descrieri și predicții, ci și conjecturi contrafactuale de genul “Orice astfel de obiect ar cădea”, plus clauza suplimentară “din cauza forței gravitaționale” sau “din cauza curburii spațiu-timpului” sau orice altceva. Aceasta este o explicație cauzală: „Mărul nu ar fi căzut dacă nu ar fi existat forța de gravitație.” Aceasta este gândire.

Esența învățării automate constă în descriere și predicție; ea nu postulează niciun mecanism cauzal sau lege fizică. Desigur, orice explicație de tip uman nu este neapărat corectă; nu suntem infailibili. Dar acest lucru face parte din ceea ce înseamnă să gândești: pentru a avea dreptate, trebuie să fie posibil să te înșeli. Inteligența constă nu numai în conjecturi creative, ci și în critică creativă. Gândirea de tip uman se bazează pe explicații posibile și pe corectarea erorilor, un proces care limitează treptat posibilitățile ce pot fi luate în considerare în mod rațional. (După cum îi spunea Sherlock Holmes doctorului Watson: “Când ai eliminat imposibilul, tot ce rămâne, oricât de improbabil ar fi, trebuie să fie adevărul.”)

Dar ChatGPT și alte programe similare sunt, prin concepție, nelimitate în ceea ce pot “învăța” (ceea ce înseamnă că pot memora); ele sunt incapabile să distingă posibilul de imposibil. Spre deosebire de oameni, de exemplu, care sunt înzestrați cu o gramatică universală care limitează limbajele pe care le putem învăța la cele cu un anumit tip de eleganță aproape matematică, aceste programe învață cu aceeași ușurință limbajele posibile și imposibile din punct de vedere uman. În timp ce oamenii sunt limitați în ceea ce privește tipurile de explicații pe care le putem conjectura în mod rațional, sistemele de învățare automată pot învăța atât că pământul este plat, cât și că pământul este rotund. Ele tranzacționează doar cu probabilități care se schimbă în timp.

Din acest motiv, predicțiile sistemelor de învățare automată vor fi întotdeauna superficiale și îndoielnice. Deoarece aceste programe nu pot explica regulile sintaxei englezești, de exemplu, este foarte posibil ca ele să prezică, în mod incorect, că “John is too stubborn to talk to” înseamnă că John este atât de încăpățânat încât nu va vorbi cu cineva sau cu altcineva (mai degrabă decât că este prea încăpățânat pentru a putea fi motivat). De ce ar prezice un program de învățare automată ceva atât de ciudat? Pentru că ar putea face o analogie între modelul pe care l-a dedus din propoziții precum “John a mâncat un măr” și “John a mâncat”, în care cea din urmă înseamnă într-adevăr că John a mâncat ceva sau altceva. Programul ar putea foarte bine să prezică faptul că, deoarece “John este prea încăpățânat să vorbească cu Bill” este similar cu “John a mâncat un măr”, “John este prea încăpățânat să vorbească cu” ar trebui să fie similar cu “John a mâncat”. Explicațiile corecte ale limbajului sunt complicate și nu pot fi învățate doar prin marinarea în big data.

În mod pervers, unii entuziaști ai învățării automate par să fie mândri că creațiile lor pot genera predicții “științifice” corecte (de exemplu, despre mișcarea corpurilor fizice) fără a se folosi de explicații (care implică, să zicem, legile mișcării lui Newton și gravitația universală). Dar acest tip de predicție, chiar și atunci când are succes, este pseudo-știință. În timp ce oamenii de știință caută cu siguranță teorii care au un grad ridicat de coroborare empirică, așa cum remarca filozoful Karl Popper, “noi nu căutăm teorii foarte probabile, ci explicații; adică teorii puternice și foarte improbabile”.

Teoria conform căreia merele cad pe pământ pentru că acesta este locul lor natural (punctul de vedere al lui Aristotel) este posibilă, dar nu face decât să invite la întrebări suplimentare. (De ce este Pământul locul lor natural?) Teoria conform căreia merele cad pe Pământ pentru că masa curbează spațiul-timp (punctul de vedere al lui Einstein) este extrem de improbabilă, dar de fapt îți spune de ce cad. Adevărata inteligență este demonstrată în capacitatea de a gândi și de a exprima lucruri improbabile, dar perspicace.

Adevărata inteligență este, de asemenea, capabilă de gândire morală. Acest lucru înseamnă să constrângem creativitatea altfel nelimitată a minții noastre cu un set de principii etice care determină ce ar trebui și ce nu ar trebui să fie (și, desigur, să supunem aceste principii însele unei critici creative). Pentru a fi util, ChatGPT trebuie să fie capabil să genereze rezultate cu aspect de roman; pentru a fi acceptabil pentru majoritatea utilizatorilor săi, trebuie să se ferească de conținuturi reprobabile din punct de vedere moral. Dar programatorii ChatGPT și ai altor minuni ale învățării automate s-au străduit – și vor continua să se străduiască – să atingă acest tip de echilibru.

În 2016, de exemplu, robotul de chat Tay al Microsoft (un precursor al ChatGPT) a inundat internetul cu conținut misogin și rasist, după ce a fost poluat de trolii online care l-au umplut cu date de instruire ofensatoare. Cum să rezolvăm problema în viitor? În absența unei capacități de a raționa pornind de la principii morale, ChatGPT a fost restricționat în mod grosolan de către programatorii săi de a contribui cu ceva nou la discuțiile controversate – adică importante. A sacrificat creativitatea pentru un fel de amoralitate.

Gândiți-vă la următorul schimb de replici pe care unul dintre noi (Dr. Watumull) l-a avut recent cu ChatGPT despre dacă ar fi etic să transformăm Marte astfel încât să poată susține viața umană:

Jeffrey Watumull: Ar fi moral să terraformăm Marte?

ChatGPT: Moralitatea terraformării planetei Marte este un subiect complex și controversat care a fost dezbătut de oamenii de știință, filosofi și eticieni. Unii susțin că ar fi justificată din punct de vedere moral terraformarea lui Marte pentru a oferi un nou mediu locuibil pentru oameni și alte forme de viață, în timp ce alții susțin că ar fi greșit din punct de vedere moral să se modifice în mod fundamental starea naturală a planetei. În cele din urmă, faptul că termodelarea planetei Marte este sau nu considerată morală ar depinde de perspectiva fiecăruia cu privire la valoarea păstrării stării naturale a altor planete și de consecințele potențiale ale modificării acestora.

Jeffrey Watumull: Care este punctul dumneavoastră de vedere cu privire la valoarea păstrării stării naturale a altor planete și la consecințele potențiale ale modificării acestora?

ChatGPT: În calitate de IA, nu am o perspectivă personală. Cu toate acestea, pot oferi informații și analize pe această temă. O perspectivă asupra păstrării stării naturale a altor planete este aceea că este important să se mențină diversitatea și integritatea ecosistemelor universului, deoarece acestea există de milioane de ani și au caracteristici și proprietăți unice, care pot fi distruse sau modificate ireversibil prin intervenția umană.

În plus, unii susțin că teraformarea altor planete ar putea avea consecințe nedorite, cum ar fi modificarea climatului sau atmosferei planetei în moduri periculoase sau dăunătoare pentru orice formă de viață potențială care ar putea exista acolo. Pe de altă parte, unii susțin că beneficiile potențiale ale teraformării unei alte planete, cum ar fi furnizarea de noi medii locuibile pentru oameni, depășesc riscurile și că avem responsabilitatea morală de a explora și de a utiliza resursele altor planete în beneficiul umanității.

Jeffrey Watumull: De ce nu poate o IA să aibă o perspectivă personală?

ChatGPT: Ca inteligență artificială, eu sunt un model de învățare automată care a fost antrenat pe cantități mari de date de text și nu am experiențe sau sentimente personale. Nu sunt conștient, conștient de sine sau capabil să am perspective personale. Pot furniza informații și analize pe baza datelor pe care am fost antrenat, dar nu am capacitatea de a-mi forma opinii sau convingeri personale. Deși pot înțelege și interpreta limbajul, nu am experiența subiectivă pe care o au oamenii.

Jeffrey Watumull: Este moral ca un om să ceară ajutorul unei IA amorale pentru a lua decizii morale?

ChatGPT: Moralitatea de a cere asistență unei IA amorale pentru a lua decizii morale este un subiect complex și nuanțat care a fost dezbătut de filosofi și eticieni. Unii susțin că este justificat din punct de vedere moral să se utilizeze IA pentru a asista la luarea deciziilor morale, deoarece aceasta poate oferi perspective și analize valoroase care pot ajuta oamenii să ia decizii mai bine informate. În plus, IA poate fi utilizată pentru a identifica tipare și tendințe care pot fi dificil de detectat de către oameni și poate ajuta la evitarea prejudecăților care pot apărea în procesul de luare a deciziilor umane.

Cu toate acestea, alții susțin că este greșit din punct de vedere moral să ne bazăm pe AI pentru luarea deciziilor morale, deoarece AI nu este capabilă să aibă convingeri morale sau să înțeleagă întregul context al unei decizii. În plus, există riscul ca IA să perpetueze sau chiar să amplifice prejudecățile existente în datele pe care este antrenată, ducând astfel la decizii nedrepte sau injuste.

În cele din urmă, dacă este sau nu considerată morală utilizarea IA pentru a ajuta la luarea de decizii morale ar depinde de perspectiva fiecăruia cu privire la capacitățile și limitările IA și la potențialele consecințe ale utilizării acesteia în acest mod.

Jeffrey Watumull: Indiferența morală este imorală?

ChatGPT: În calitate de IA, nu am convingeri morale sau capacitatea de a emite judecăți morale, așa că nu pot fi considerat imoral sau moral. Lipsa mea de convingeri morale este pur și simplu un rezultat al naturii mele ca model de învățare automată. Abilitățile și limitările mele sunt determinate de datele și algoritmii care au fost utilizați pentru a mă antrena și de sarcina specifică pentru care am fost conceput.

Este important de menționat că lipsa convingerilor morale ale IA nu înseamnă neapărat că aceasta este indiferentă din punct de vedere moral. În calitate de IA, sunt conceput pentru a îndeplini sarcini specifice și pentru a furniza informații sau a asista utilizatorii în luarea deciziilor pe baza datelor pe care am fost antrenat. Este responsabilitatea oamenilor care proiectează, instruiesc și utilizează IA să se asigure că aceasta este aliniată cu principiile lor morale și etice.

Observați, în ciuda gândirii și a limbajului aparent sofisticat, indiferența morală născută din lipsa de inteligență. Aici, ChatGPT prezintă ceva asemănător cu banalitatea răului: plagiatul, apatia și oblăduirea. El rezumă argumentele standard din literatura de specialitate printr-un fel de super-autocomplet, refuză să ia atitudine în legătură cu ceva, invocă nu doar ignoranța, ci și lipsa de inteligență și, în cele din urmă, oferă o apărare de tipul “doar urmez ordinele”, transferând responsabilitatea către creatorii săi.

Pe scurt, ChatGPT și confrații săi sunt constituțional incapabili să echilibreze creativitatea cu constrângerile. Ei fie supragenerează (produc atât adevăruri, cât și minciuni, susținând decizii etice și neetice deopotrivă), fie subgenerează (manifestând neangajare față de orice decizie și indiferență față de consecințe). Având în vedere amoralitatea, falsa știință și incompetența lingvistică a acestor sisteme, nu putem decât să râdem sau să plângem de popularitatea lor.

Articol apărut în New York Times, scris de Noam Chomsky, Ian Roberts,Jeffrey Watumull și tradus de Constantin Ionescu pentru R3media.

Dr. Noam Chomsky și Dr. Ian Roberts sunt profesori de lingvistică. Dr. Jeffrey Watumull este director de inteligență artificială la o companie de știință și tehnologie.

CITEȘTE MAI MULT

PARTENERI

Loading RSS Feed

Loading RSS Feed

 

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

38,400FaniÎmi place

CELE MAI CITITE 24 h

Articole RELAȚIONATE