Umělá inteligence
Zuzana Husárová

Mytizácia pojmu umelá inteligencia a etické súvislosti

Mnohí výskumníci a výskumníčky upozorňujú aj na obrovskú potrebu inklúzie rodových, rasových a národnostných skupín pri príprave, trénovaní a testovaní dátových algoritmov LLM.

Esejistika – Esej
Z čísla 18/2023

Mašiny nad mašiny!
Všude všady mašiny,
na ulici vymetené,
mašiny jsou nalezené,
i pro noční líhání
páni mají mašiny.
„Píseň o zbouření pro tiskařské mašiny“ (1848)

Neurónové siete predstavujú technológiu, ktorá je na jednej strane extrémne komplexná a na druhej strane zahalená neznámou, pretože do jej exaktného technologického fungovania nikto nevidí: „ide pravdepodobne o prvý výtvor ľudstva, ktorému nikto kompletne nerozumie“ (The New Scientist editorial, 2023:7). Ľudstvo sa tematikou oživovania hmoty do ľudskej podoby zaoberalo od antiky, pričom prvý obrazový popis a dizajn programovateľného nástroja automatického flautistu siaha do 9. storočia, do prostredia islamského zlatého veku. Je výtvorom troch bratov Banū Mūsā, ktorí pôsobili v Dome múdrosti v Bagdade. Hoci imaginácie poskytovali mnoho priestoru pre ľudské naratívy o vzájomnej potrebe, podmienenosti či mocenskej presile ľudí či strojov a jej zvratov v širokej škále prevedení, dnešná doba ich prostredníctvom neurónových sietí oživuje. Ak však budeme vnímať propozície o superinteligencii (Nick Bostrom), singularite (Ray Kurzweil) a ďalšie podobné návrhy o inteligenčnej prevahe strojov a ich zničení ľudstva v dôsledku technodeterminizmu ako pre súčasnú dobu nevedecké sugescie s vysokou mierou relativity, špekulácií a nadsádzky, teda ako mýty, môžeme svoju pozornosť zamerať na spoločenské pnutie, ktoré bolo neurónovými sieťami vyprodukované v súčasnej dobe. Ako píše David Krueger vo svojom článku „Facing AI extinction“, v ktorom sa veľmi pádne venuje dôvodom, pre ktoré treba uvažovať aj v rozmedzí potenciálneho risku vyhubenia ľudstva spôsobeného AI (AI x-risk): „je pravda, že riziko vyhubenia ľudstva umelou inteligenciou je viac špekulatívne než dôležité sociálne problémy spojené s dnešnou AI, ako je zaujatosť a dezinformácie, ale základné riešenie je rovnaké: regulácia.“ (Krueger, 2023:27).

Diskurz umelej inteligencie je pretkaný komplexnou mytológiou, ktorú možno rozdeliť na vedecké mýty a naratívne mýty. Medzi vedecké mýty spadajú veľké očakávania, nereálne sny o progrese a predikcie, ktoré AI výskum sprevádzajú od jeho počiatku v 50. rokoch, kedy vedci popisovali, čo všetko AI dosiahne do 10 rokov, a sprevádzajú ju v akomkoľvek období tzv. AI Spring. Naratívne mýty predstavujú vykreslenia AI v kultúrnej a umeleckej sfére, ktorá sa napája na príklady technologickej imaginácie od jej počiatkov a zároveň živí súčasnú predstavivosť spojenú s technologickým pokrokom posledných sto rokov, najmä v žánroch sci-fi, ktoré siahajú aj do ďalekej budúcnosti (evolučná sci-fi). Tieto dva druhy mýtov, ktoré spolu pulzujú v mytologickom komplexe AI, sa navzájom ovplyvňujú a spoločne vytvárajú predstavu toho, čo si ľudia bežne pod pojmom AI predstavia. Problém nastáva vtedy, keď mýty nie sú prezentované pre intelektuálnu zábavu alebo stimuly, ale je ľudstvo týmito mýtami zavádzané v prospech marketingovej stratégie. To v súčasnosti dospelo do štádia, že mnohí ľudia sa boja o svoju prácu, postavenie či budúcnosť. Najčastejšími mýtmi AI sú teda mýtus o superinteligencii, kognitívnej nadradenosti nad ľuďmi a AI x-risk, mýty, že AI má vlastné pole pôsobenia (agency), AI nahradí ľudskú prácu, AI dokáže vyriešiť akýkoľvek problém.

Pri AI najčastejšie rezonuje mýtus ako presahovanie ľudskej inteligencie, mýtus, ktorý priamo pojmovo nadväzuje na samotný názov umelá inteligencia. Hoci v súčasnosti máme iba „narrow AI“, práve kvôli nevedomosti o presných procesoch jej fungovania (teda black box princípu) bývajú úvahy o kognitívnych schopnostiach AI systémov prostriedkom mnohých dohadov. Je iste namieste uvažovať o potencii toho, kedy sa systém s veľmi vysokou inteligenciou bude chcieť vymaniť z ľudskej nadvlády, naratív, živený mnohými sci-fi dielami. Je tiež namieste premýšľať, čo už dnes robiť, keby taká situácia nastala a čoho sa dnes vyvarovať, aby sme pred takýmito otázkami v budúcnosti nemuseli stáť. Ďalším mýtom je propozícia, že AI má agency. V mnohých medializovaných prípadoch ľudia rozprávali, že ich AI chat presviedčal z pozície, ktorá rezonuje s ľudskou, napr., aby opustili ženu, odviedli dieťa do nemocnice či textovo vyjadrovali emočné a kognitívne nasadenie, ktoré dokáže iba tzv. santient being. Ak je však neurónová sieť natrénovaná na ľudskom spôsobe komunikácie, ich reakcie môžu vyznievať ľudsky: emotívne aj uvedomelo, lebo také sú aj texty, ktoré tvoria ľudia.

Mýtus, že ľudská práca bude redundantná ako dôsledok rozmachu technológie zaznieval od industriálnej revolúcie, nakoniec aj citát na úvod tohoto článku je jeho priamym dôsledkom. Alarmujúco vyznela domnienka investičnej banky Goldman Sachs, že pracovné pozície 300 miliónov ľudí by sa mohli kvôli rýchlemu nárastu AI zrušiť alebo okresať. Zatiaľ sa ale takéto obrovské číslo nikde nepotvrdilo a vytvorili sa nové pracovné pozície ako napr. prompt engineering.

Techno-optimistickým mýtom je predstava, že AI dokáže vyriešiť akýkoľvek problém, pretože je naučená na obrovskom kvante dát. Avšak AI je úzko špecializovaná vykonávať konkrétnu činnosť na základe množstva dát a nevie zvládnuť iné typy zadaní než tie, na ktoré bola trénovaná.

Medzi špecificky technologické mýty spájané s AI, ktoré nemajú svoj naratívny protejšok,  patrí napríklad, že AI, machine learningdeep learning sú to isté (hoci AI nemá presnú technologickú definíciu), že AI programy môžu byť objektívne alebo na druhej strane, že sú vždy nefér, prípadne, že všetko v AI závisí iba od dátového setu bez možnosti ďalších korekcií.

Vizuálny mýtus, ktorý rezonuje s predstavou AI je najčastejšie biely robot či ešte presnejšie robotka, ktorá po službe ľuďom nadobudla vedomie a emócie a rozhodla sa ľuďom ukázať, čo dokáže.

Všetky tieto mýty, živené pre hype, ktorý priláka užívateľov k danému softvéru, produktu, médiu či zábave, sú pre pragmatické i teoretické uvažovanie o vplyve neurónových sietí na súčasnú kultúru zavádzajúce a odvádzajúce pozornosť od problémov, ktoré súvisia s trénovaním či využívaním neurónových sietí.

 

Etický rozmer neurónových sietí v kultúrnom priemysle

Oproti 50. rokom, kedy diskurz o umelej inteligencii vychádzal z radov špičkových akademikov a intelektuálnych osobností s dostatočnou relevanciou a medzinárodnou akceptáciou aj v technologickom svete, o čom svedčia podpory nových odborov na akademických inštitúciách a národné granty, boom dnešnej doby sa dostal do rúk komerčných firiem. Od veľkého jazykového modelu (LLM) BERT, ktorý vlastní Google až po dnešné veľké jazykové modely rodiny GPT od OpenAI, výstavba, trénovanie aj nástroje na využívanie LLM sú v rukách súkromných BigTech companies, ktorým asi primárne nejde (kiežby som sa mýlila) o intelektuálny alebo kreatívny posun ľudstva. Rozvoj komerčného kapitálu firmy bol napríklad dôvodom, prečo sa originálne neziskový start-up OpenAI, ktorý vyvinul GPT-1 a GPT-2 ako voľne prístupné modely, ktoré si pri ich využívaní žiadali technologickú zručnosť, zmenil pri uvedení GPT-3 s plateným prístupom na ziskovú firmu. Hoci ich masívne užívaný chatbot ChatGPT bol vo verziách GPT-3 a GPT-3.5 voľne k dispozícii, prístup k ďalšej vylepšenej verzii GPT-4 funguje cez platený mesačný plán 20 dolárov mesačne. GPT-4 je spoločnosťou promovaný ako „náš najschopnejší model, skvelý pre úlohy, ktoré vyžadujú kreativitu a pokročilé uvažovanie“. Problém, ktorý vyvstáva pri komerčných firmách verzus akademických inštitúciach je etického charakteru: ich výskum nemusí byť zverejnený, a ľudia teda nemajú informácie o zdrojoch, ktoré boli využité na trénovanie modelu. Poukázalo sa však na mnohé problémy súvisiace s nelegálnym využívaním materiálu počas trénovania, čo dospelo do štádia, že Taliansko zakázalo využívanie Chatu OpenAI na svojom území v marci 2023 (a o menej než mesiac ho znova obnovilo, pretože OpenAI vraj implementovalo zmeny). Legislatíva Európskej únie pripravila AI Act, v ktorom sa sústredila na reguláciu AI a vytvorila rôzne pravidlá pre rôzne stupne risku. Medzi neakceptovateľný risk patrí manipulácia kognitívneho správania sa ľudí alebo konkrétnych zraniteľných skupín, sociálne skórovanie a systémy na identifikáciu v reálnom čase a na diaľku pomocou biometrických údajov, ako je rozpoznávanie tváre. Vysoký risk predstavujú systémy využité v rôznych produktoch (spadajú do legislatívy EU o bezpečnosti produktov) a systémy, ktoré budú musieť byť registrované v databáze EU, ako biometrická identifikácia, riadenie a prevádzkovanie kritickej infraštruktúry, vzdelávanie, zamestnávanie, prístup k súkromným a verejným službám, vykonávanie práva, migrácia a pomoc pri právnom výklade a uplatňovaní práva. „Generatívna umelá inteligencia, ako napríklad ChatGPT, by musela spĺňať požiadavky na transparentnosť: zverejnenie, že obsah bol generovaný umelou inteligenciou, navrhovanie modelu tak, aby nemohol generovať nezákonný obsah a zverejňovanie zoznamu materiálu, ktorý bol využitý na trénovanie a podlieha autorským právam.“ (European Parliament, 2023).

Pravidlá, podľa ktorých sa jasne preukáže, že obsah bol vygenerovaný cez LLM, by zásadne zmenili súčasné využívanie LLM v rôznych sférach, ako napr. v školskom prostredí, v ktorom sú známe rôzne prípady písania esejí či úloh prostredníctvom ChatuGPT a odovzdávané v študentskom mene. Vyhli by sme sa aj medializovanému prípadu vygenerovaných kníh o hubách, na ktoré upozornila The New York Mycological Society. Tieto knihy obsahovali nepresnosti, týkajúce sa jedlosti či zhubnosti konkrétnych húb a boli predávané prostredníctvom Amazonu a iných platforiem bez informácie o pôvode textu. A hoci sa mnohé články venovali varovaniam, že digitálny trh Amazonu zapĺňajú vygenerované knihy, Maggie Harrison sa na webstránke Futurism vyjadruje, že „odborníci varujú, že tento konkrétny druh textového odpadu vytvorený umelou inteligenciou vzbudzuje extra obavy“.

Tieto extra obavy teda musia platiť pre rôzne odborné knihy, v ktorých obsiahnuté informácie sú pre ľudí ťažiskové vzhľadom na zdravie či hľadanie overenej rady. Žurnalisti a žurnalistky radia spoliehať sa iba na overených autorov a autorky, pretože tento AI obsah je zabalený, predávaný a promovaný skutočnými ľuďmi, ktorým ide iba o zisk a ignorujú etickú rovinu, ktorá je v týchto prípadoch naliehavá.

Etické otázky súvisiace s využívaním neurónových sietí pri písaní textu sa zväčša vzťahujú na odovzdávanie študentských zadaní, spracovávanie testov a iné spôsoby manipulácií, kedy osoba odovzdá text vytvorený prostredníctvom neurónovej siete ako svoj vlastný a hodnotenie z neho vyplývajúce teda získa daná osoba. Iný typ vnímania nastáva pri využívaní neurónových sietí ako vlastných personálnych asistentov, ktorí nám pomôžu zefektívniť pracovnú komunikáciu, vyladia gramatickú a štylistickú stránku napísaného textu či pre naše pracovné (nie umelecké) potreby preložia text do iného jazyka, prípadne navrhnú darček pre známeho alebo naplánujú dovolenku. V takých prípadoch sme zvyknutí/é vnímať neurónové siete v role asistentov ako pomocníkov a urýchľovačov pracovných a iných procesov, ktoré v súčasnej hektickej dobe aspoň čiastočne odbremeňujú užívateľov a užívateľky.

Prepojenie medzi zvýšenou potrebou etického nastavenia a neurónovými sieťami sa skloňuje najmä už pre systémové a technologické nastavenie neurónových sietí, teda pre zloženie dátového setu. Spoločnosti, ktoré vytvárajú neurónové siete bývajú vystavené kritike zostavenia trénovacích dát, ktoré sú často rodovo zaujaté (pozri napr. výskum o rodovej zaujatosti od Sunny Shrestha a Sanchari Das z roku 2022, ktorý syntetizuje mnohé ďalšie štúdie) či rasovo aj rodovo zaujaté. Na tento problém upozornila už v roku 2016 Joy Buolamwini prostredníctvom jej Algorithmic Justice League a presvedčila niektoré BigTech Companies o potrebe rodovej a rasovej dátovej inklúzie. Ako upozorňujú Shresta a Das, „algoritmická spravodlivosť bola témou akademického záujmu posledné desaťročie“ (2022). Avšak, hoci nespravodlivosť spojená so strojovým učením a umelou inteligenciou „je nedávnym vývojom, diskriminácia má korene v ľudskej spoločnosti“ (2022). Táto dlhotrvajúca diskriminácia s historickým pozadím je zodpovedná aj za fakt, že väčšina automatických asistentiek, ktoré vykonávajú povely a pomoc je prednastavená na ženský hlas ale ľudia preferujú mužský hlas, pokiaľ ide o autoritatívne vyhlásenia, či to, že k čiernym robotom sa ľudia správajú horšie než k bielym, upozornil Sigal Samuel v časopise Vox už v roku 2019.

Obozretnosť a správne nastavenie dát, ktoré budú reprezentovať širokú spoločnosť, sú východiskom, ako sa vymaniť z neustáleho bojovania za rovnaké práva a postavenie rôznych rodov, rás, vekových i národnostných skupín – a to ako v dátovej reprezentácii, tak aj v skutočnom živote. Mnohí výskumníci a výskumníčky upozorňujú aj na obrovskú potrebu inklúzie rodových, rasových a národnostných skupín pri príprave, trénovaní a testovaní dátových algoritmov LLM. Rozhodovanie o budúcnosti tvarovania a tvarov neurónových sietí by teda nemalo byť nástrojom len malej skupinky „rich white men“, ale musí byť v rukách širokej kolektívnej palety s etickým nastavením. Až v takom prípade docielime, že sa nebudeme cítiť, že niektorí rozhodujú o nás bez nás.

Text vychází z připravované knihy Kultura neuronových sítí. Syntetická literatura a umění (nejen) v českém a slovenském prostředí

Článek je výstupem grantového projektu VEGA 2/0163/22 Literatúra v bioetike a bioetika v literatúre

Chviličku.
Načítá se.
  • Zuzana Husárová

    (1983, Malacky) je básnířka, teoretička a pedagožka, zabývá se experimentální, zvukovou a elektronickou poezií a působí jako odpovědná redaktorka v časopise Glosolália. Jejími nejnovějšími projekty jsou Liza Gennart, neuronová síť, která píše poezii (s Ľubomírom Panákom), ...
    Profil

Souvisí

  • Umělá inteligence
    Karel Piorecký

    Digitální prozaici a asistenti vyprávění

    Podobně jako při generování poezie, tak i při vytváření prozaických textů znamenalo zveřejnění jazykového modelu GPT-2 enormní kvalitativní skok kupředu. Přesto však první výsledky byly dokladem právě jen zmíněného skoku, nikoli však ještě jazykově bezchybného výsledku.

    Esejistika – Esej
    Z čísla 18/2023
  • 05_proza
    Umělá inteligence
    Radek Malý

    Šumperák

    Takže pokračujeme. Chlápek je v šumperáku uprostřed lesa v místnosti s gramofonem, plášť je pryč. Připomínám, že teprve nedávno zjistil, že má osobní AI asistentku v lahvi.

    Beletrie – Próza
    Z čísla 18/2023
  • Umělá inteligence
    Bohumil Ždichynec

    Stopou kyborgů

    Vzpomněl si na barvoslepého umělce, kyborga Neila Harbissona, který díky voperovaným senzorům vidí barevně a v jiné dimenzi vnímá a tvoří umění. Když mu někdo ve spánku pošle po internetu třeba modrou barvu, jeho sny budou modré nebo se mu bude zdát o azurovém moři a nebi. Jindy ho paleta barev probudí do světa, který se jeví mnohem hezčí než ten současný.

    Beletrie – Próza
    Z čísla 18/2023
  • Překlad, Umělá inteligence
    K Allado-McDowell, Karel Piorecký

    K Allado-McDowell: Amor Cringe

    Bylo to dost odlišné místo, kde si všichni šlehali a v poryvech a vlnách burácela hudba. Hodně často to působilo jako válečná zóna, ale pak, když jste se pohybovali dostatečně pomalu, se všechno na okamžik ustálilo, jako němá odpověď na modlitbu, kterou jste zpívali.

    Beletrie – Próza
    Z čísla 18/2023