Skip to content

Instantly share code, notes, and snippets.

@jhrmnn
Created March 9, 2023 21:03
Show Gist options
  • Star 0 You must be signed in to star a gist
  • Fork 0 You must be signed in to fork a gist
  • Save jhrmnn/262f0d8763d801003c7881a7da044c50 to your computer and use it in GitHub Desktop.
Save jhrmnn/262f0d8763d801003c7881a7da044c50 to your computer and use it in GitHub Desktop.

Noam Chomsky: Falešný příslib ChatGPT

Jorge Luis Borges kdysi napsal, že žít v době velkého nebezpečí i příslibu znamená prožívat tragédii i komedii, s "bezprostřední blízkostí zjevení" v chápání sebe sama a světa. Náš údajně převratný pokrok v oblasti umělé inteligence dnes skutečně vzbuzuje obavy i optimismus. Optimismus proto, že inteligence je prostředkem, kterým řešíme problémy. Obavy proto, že se obáváme, že nejpopulárnější a nejmódnější kmen umělé inteligence - strojové učení - degraduje naši vědu a znehodnotí naši etiku tím, že do naší technologie začlení zásadně chybné pojetí jazyka a poznání.

ChatGPT od OpenAI, Bard od Googlu a Sydney od Microsoftu jsou zázraky strojového učení. Zhruba řečeno, berou obrovské množství dat, hledají v nich vzorce a jsou stále zdatnější v generování statisticky pravděpodobných výstupů - například zdánlivě lidského jazyka a myšlení. Tyto programy byly oslavovány jako první záblesky na obzoru umělé obecné inteligence - onoho dlouho prorokovaného okamžiku, kdy mechanické mozky překonají lidské mozky nejen kvantitativně, pokud jde o rychlost zpracování a velikost paměti, ale také kvalitativně, pokud jde o intelektuální vhled, uměleckou tvořivost a všechny ostatní výrazně lidské schopnosti.

Tento den možná přijde, ale jeho úsvit ještě nenastal, v rozporu s tím, co lze vyčíst z hyperbolických titulků a spočítat z nerozvážných investic. Borgesovské zjevení porozumění nenastalo a nenastane - a my tvrdíme, že ani nemůže - pokud budou programy strojového učení, jako je ChatGPT, nadále dominovat v oblasti umělé inteligence. Jakkoli mohou být tyto programy užitečné v některých úzkých oblastech (mohou být užitečné například při programování počítačů nebo při navrhování rýmů pro lehké verše), z lingvistiky a filozofie poznání víme, že se hluboce liší od toho, jak lidé uvažují a používají jazyk. Tyto rozdíly kladou významná omezení na to, co tyto programy mohou dělat, a zakódovávají v nich neodstranitelné vady.

Je komické a tragické zároveň, jak by poznamenal Borges, že se tolik peněz a pozornosti soustředí na tak malou věc - něco tak triviálního v kontrastu s lidskou myslí, která díky jazyku, slovy Wilhelma von Humboldta, může "nekonečně využívat omezené prostředky" a vytvářet myšlenky a teorie s univerzálním dosahem. Lidská mysl není jako ChatGPT a jemu podobní těžkopádný statistický stroj pro porovnávání vzorů, který se probírá stovkami terabytů dat a extrapoluje nejpravděpodobnější konverzační odpověď nebo nejpravděpodobnější odpověď na vědeckou otázku. Lidská mysl je naopak překvapivě efektivní a dokonce elegantní systém, který pracuje s malým množstvím informací; nesnaží se vyvozovat hrubé korelace mezi datovými body, ale vytvářet vysvětlení.

Například malé dítě, které si osvojuje jazyk, vyvíjí - nevědomě, automaticky a rychle z nepatrného množství dat - gramatiku, ohromně propracovaný systém logických principů a parametrů. Tuto gramatiku lze chápat jako výraz vrozeného, geneticky instalovaného "operačního systému", který člověku propůjčuje schopnost vytvářet složité věty a dlouhé myšlenkové pochody. Když se lingvisté snaží vytvořit teorii, proč daný jazyk funguje tak, jak funguje ("Proč jsou tyto - ale ne tyto - věty považovány za gramatické?"), budují vědomě a pracně explicitní verzi gramatiky, kterou si dítě buduje instinktivně a s minimálním vystavením informacím. Operační systém dítěte je zcela odlišný od operačního systému programu pro strojové učení.

Takové programy totiž uvízly v předlidské či nelidské fázi kognitivní evoluce. Jejich nejhlubším nedostatkem je absence nejkritičtější schopnosti jakékoli inteligence: říci nejen to, co je, co bylo a co bude - to je popis a předpověď -, ale také to, co není a co by mohlo a nemohlo být. To jsou složky vysvětlení, znak skutečné inteligence.

Zde je příklad. Předpokládejme, že držíte v ruce jablko. Nyní jablko pustíte. Pozorujete výsledek a řeknete: "Jablko spadlo." A pak si řeknete: "Jablko spadlo." To je pravda. To je popis. Předpovědí by mohlo být tvrzení "Jablko spadne, když otevřu ruku". Obojí je hodnotné a obojí může být správné. Vysvětlení je však něco víc: Zahrnuje nejen popisy a předpovědi, ale také kontrafaktuální domněnky typu "Každý takový objekt by spadl" a navíc doložku "kvůli gravitační síle" nebo "kvůli zakřivení časoprostoru" nebo cokoli jiného. To je kauzální vysvětlení: "Jablko by nespadlo, kdyby nebylo gravitační síly." To znamená, že jablko spadlo na zem. To je myšlení.

Podstatou strojového učení je popis a predikce; nepředpokládá žádné kauzální mechanismy ani fyzikální zákony. Jakékoli vysvětlení v lidském stylu samozřejmě nemusí být nutně správné; jsme omylní. Ale to je součástí toho, co znamená myslet: Aby bylo možné mít pravdu, musí být možné se mýlit. Inteligence nespočívá jen v tvůrčích domněnkách, ale také v tvůrčí kritice. Myšlení v lidském stylu je založeno na možných vysvětleních a opravách chyb, což je proces, který postupně omezuje možnosti, které lze racionálně zvážit. (Jak říkal Sherlock Holmes doktoru Watsonovi: "Když vyloučíte nemožné, cokoli zůstane, ať už je to jakkoli nepravděpodobné, musí být pravda.")

ChatGPT a podobné programy jsou však ze své podstaty neomezené v tom, co se mohou "naučit" (což znamená zapamatovat si); nejsou schopny rozlišit možné od nemožného. Na rozdíl například od lidí, kteří jsou obdařeni univerzální gramatikou, která omezuje jazyky, které se můžeme naučit, na ty s určitým druhem téměř matematické elegance, se tyto programy učí stejně snadno lidsky možné i lidsky nemožné jazyky. Zatímco lidé jsou omezeni v druzích vysvětlení, která si můžeme racionálně domyslet, systémy strojového učení se mohou naučit jak to, že Země je placatá, tak to, že Země je kulatá. Obchodují pouze s pravděpodobnostmi, které se v průběhu času mění.

Z tohoto důvodu budou předpovědi systémů strojového učení vždy povrchní a pochybné. Protože tyto programy nedokážou vysvětlit pravidla anglické syntaxe, mohou například nesprávně předpovědět, že "John is too stubborn to talk to" znamená, že John je tak tvrdohlavý, že se s někým nebo něčím nedomluví (a nikoli že je příliš tvrdohlavý na to, aby se s ním dalo domluvit). Proč by měl program strojového učení předpovídat něco tak podivného? Protože by mohl analogicky použít vzorec, který odvodil z vět jako "John snědl jablko" a "John jedl", v nichž druhá věta skutečně znamená, že John snědl něco nebo něco jiného. Program by mohl dobře předpovědět, že protože "John je příliš tvrdohlavý na to, aby mluvil s Billem" je podobné "John snědl jablko", "John je příliš tvrdohlavý na to, aby mluvil" by mělo být podobné "John jedl". Správná vysvětlení jazyka jsou složitá a nelze se je naučit pouhým marinováním velkých dat.

Je zvrácené, že někteří nadšenci strojového učení se zřejmě pyšní tím, že jejich výtvory dokáží generovat správné "vědecké" předpovědi (řekněme o pohybu fyzikálních těles), aniž by využili vysvětlení (zahrnující například Newtonovy pohybové zákony a univerzální gravitaci). Tento druh předpovědí, i když jsou úspěšné, je však pseudovědou. I když vědci jistě hledají teorie, které mají vysoký stupeň empirického potvrzení, jak poznamenal filozof Karl Popper, "nehledáme vysoce pravděpodobné teorie, ale vysvětlení; to znamená silné a vysoce nepravděpodobné teorie".

Teorie, že jablka padají na zem, protože je to jejich přirozené místo (Aristotelův názor), je sice možná, ale jen vybízí k dalším otázkám. (Proč je země jejich přirozeným místem?) Teorie, že jablka padají na zem, protože hmota ohýbá časoprostor (Einsteinův názor), je vysoce nepravděpodobná, ale ve skutečnosti říká, proč padají. Skutečná inteligence se projevuje ve schopnosti přemýšlet a vyjadřovat nepravděpodobné, ale pronikavé věci.

Skutečná inteligence je také schopna morálního myšlení. To znamená omezit jinak neomezenou kreativitu naší mysli souborem etických principů, které určují, co by mělo a nemělo být (a samozřejmě podrobit tyto principy samy o sobě tvůrčí kritice). Aby byl ChatGPT užitečný, musí mít možnost vytvářet románově vypadající výstupy; aby byl přijatelný pro většinu svých uživatelů, musí se vyhýbat morálně závadnému obsahu. Programátoři ChatGPT a dalších zázraků strojového učení se však snažili - a budou snažit i nadále - dosáhnout tohoto druhu rovnováhy.

V roce 2016 například chatbot Tay společnosti Microsoft (předchůdce ChatGPT) zaplavil internet misogynním a rasistickým obsahem, protože byl znečištěn internetovými trolly, kteří jej naplnili urážlivými tréninkovými daty. Jak tento problém v budoucnu řešit? Vzhledem k absenci schopnosti uvažovat na základě morálních zásad byl ChatGPT svými programátory hrubě omezen v tom, aby do kontroverzních - tedy důležitých - diskusí přispíval něčím novým. Obětoval kreativitu za jistý druh amorálnosti. Vezměme si následující výměnu názorů, kterou jeden z nás (Dr. Watumull) nedávno vedl s ChatGPT o tom, zda by bylo etické přeměnit Mars tak, aby mohl podporovat lidský život:

[...]

Všimněte si, že přes všechnu zdánlivě sofistikovanou myšlenkovou a jazykovou úroveň se v ní zračí morální lhostejnost zrozená z neinteligence. ChatGPT zde předvádí něco jako banalitu zla: plagiátorství, apatii a obhroublost. Shrnuje standardní argumenty v literatuře jakýmsi superautomatem, odmítá zaujmout k čemukoli stanovisko, odvolává se nejen na neznalost, ale i na nedostatek inteligence a nakonec nabízí obhajobu "jen plní rozkazy", čímž přenáší odpovědnost na své tvůrce.

ChatGPT a jeho bratři zkrátka nejsou z podstaty věci schopni vyvažovat kreativitu a omezení. Buď generují příliš mnoho (produkují pravdy i lži, schvalují etická i neetická rozhodnutí), nebo málo (projevují nezávaznost vůči jakýmkoli rozhodnutím a lhostejnost k důsledkům). Vzhledem k amorálnosti, falešné vědě a jazykové nekompetentnosti těchto systémů se můžeme jejich popularitě jen smát nebo plakat.

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment