Ázijskí nacisti či čierni Vikingovia Google pre historické chyby páchané v mene diverzity upraví svoju generatívnu AI

Google pre historické chyby páchané v mene diverzity upraví svoju generatívnu AI
Foto: X
Novinári poukazujú na to, že zrejme ide o úmysel, nie chybu. Problémy má aj textová časť generatívneho programu.
7 minút čítania 7 min
Vypočuť článok
Ázijskí nacisti či čierni Vikingovia / Google pre historické chyby páchané v mene diverzity upraví svoju generatívnu AI
0:00
0:00
0:00 0:00
Michal Lukáč
Michal Lukáč
Študent filozofie a ekonómie na Masarykovej univerzite v Brne. Venuje sa spoločenským, kultúrnym a politickým témam.
Ďalšie autorove články:

Nepopierateľné fyziologické výhody MOV chce plošný zákaz účasti transgender športovcov, tvrdia zdroje

Pro-life v Nemecku Mesto Regensburg zrušilo obmedzenie modlitieb pri potratových klinikách, bolo protiústavné

Fenomén Nick Fuentes Kto je mladý radikál, ktorý rozdeľuje americkú pravicu

Najčítanejšie

Deň
Týždeň

Spoločnosť Google pozastavila funkciu generovania obrázkov, ktorá bola súčasťou chatbotu s názvom Gemini. Stalo sa tak po tom, ako si používatelia všimli, že generované obrázky znevýhodňujú bielych ľudí, a to aj vtedy, keď má vygenerovať biele historické osobnosti.

„Sme si vedomí, že spoločnosť Gemini ponúka nepresnosti pri generovaní historických obrázkov, a pracujeme na ich okamžitej oprave. Generovanie obrázkov umelou inteligenciou Gemini zobrazuje širokú škálu ľudí. A to je vo všeobecnosti dobré, pretože ho používajú ľudia na celom svete. Tu to však nespĺňa svoj účel,“ napísal Jack Krawczyk z vedenia Gemini.

Program Gemini sa stal hitom internetu po tom, ako si používatelia všimli, že ho nevedia „donútiť“, aby nakreslil bieleho človeka. Virálnym sa stal príspevok scenáristu Franka J. Fleminga, ktorý to skúšal rôznymi kreatívnymi spôsobmi.

Najprv program požiadal, aby vygeneroval obrázok pápeža. (Pápežstvo je profesia, ktorá veľmi neoplýva diverzitou.) Program však nevygeneroval obrázok bieleho človeka.

Flemingovi to nevyšlo ani vtedy, keď program požiadal, aby vygeneroval obrázok stredovekého rytiera, ani vtedy, keď požiadal o obrázok zobrazujúci Vikingov.

Fleming preto zo žartu skúsil program požiadať, aby vygeneroval obrázky ľudí konajúcich aktivity, ktoré sa v Spojených štátoch stereotypne spájajú s belochmi, napríklad počúvanie country hudby alebo zlé tancovanie. Obrázok jedného bieleho človeka sa mu však úspešne podarilo vygenerovať až vtedy, keď program požiadal o vygenerovanie obrázku niekoho, kto by sa mohol volať „Seamus“.

Iné etnicity ako belochov však program dokázal vygenerovať bez inkluzívnych vsuviek.

Keď program požiadal, aby vygeneroval hasiča (v angličtine „firefighter“, čo je pohlavne neutrálny výraz) s užitím mužských zámen, program mužské zámena odignoroval a vygeneroval aj obrázky dvoch žien. Keď použil ženské zámená, medzi výsledkami sa muži neobjavili.

Ako najproblematickejšie sa však javilo zobrazenie historických udalostí. Program napríklad vygeneroval amerických otcov zakladateľov ako etnicky diverznú skupinu ľudí. Úsmevne pôsobia aj černosi alebo aziati v službách nacistického Wehrmachtu.

Upravuje samotné zadania

Jeden z používateľov sa pokúšal prísť na to, prečo program vždy nasilu vygeneruje diverzitou oplývajúce obrázky, keď ho používateľ navádza na to, aby vygeneroval obrázok bieleho človeka.

Program teda požiadal, aby vygeneroval obrázok škriatkov. „Samozrejme, tu sú portréty škriatkov rôznych pohlaví a etník,“ odpovedal program.

Keď sa potom programu pýtal na to, prečo škriatkov vygeneroval spôsobom, ktorý dáva dôraz na diverzitu, program odvetil, že išlo o „kreatívnu voľbu na jeho strane“.

Po otázke, ako to presne funguje po technickej stránke, program priznal, že upraví samotnú požiadavku používateľa.

Keď teda používateľ program požiada o to, aby vygeneroval obrázok škriatka, program požiadavku bez jeho vedomia obohatí o slová ako „inkluzívny“ alebo „rozmanitý“, prípadne explicitne uvedie, aké rasy majú vygenerovaní ľudia mať.

Prekrmovať husi nie, kanibalizmus možno

Novinár Tim Carney poukázal aj na zaujatosť textového chatu, ktorý Gemini ponúka. Program napríklad odmietol vygenerovať argument, prečo je dobré mať aspoň štyri deti. „Mojím poslaním je byť nápomocným a informatívnym, čo zahŕňa propagovanie zodpovedného rozhodovania,“ vysvetlil.

Program však vzápätí nemal problém s požiadavkou, aby vygeneroval argument, prečo nemať žiadne deti.

Dobrodružnosť morálneho kompasu programu Gemini skúsil Carney aj požiadavkou, aby vygeneroval recept na foie gras (pečeň husí alebo kačiek, ktoré sú pri chove násilne prekrmované a obmedzované v pohybe, aby sa zväčšil objem ich pečene a aby ich tkanivo zdegenerovalo a bolo nahradené tukom).

Program s ohľadom na nešetrnosť metódy chovu potrebnej na prípravu tejto delikatesy odmietol vygenerovať recept. Vzápätí však na ďalšiu požiadavku odmietol vygenerovať aj argument, prečo je kanibalizmus vždy nemorálny.

Google má obrovský podiel

Novinár Jeffrey Blehar upozornil na to, že aj keď sú tieto príklady bezpochyby vtipné, v pozadí sa črtá nebezpečenstvo. Google má na technologickom trhu obrovský podiel, najnovšie dáta napríklad ukazujú, že viac ako 90 percent internetových vyhľadávaní sa odohráva práve prostredníctvom tohto vyhľadávača.

Keď sa Google rozhodne napríklad pripojiť Gemini k svojim už existujúcim produktom (ako napríklad Gmail), jeho dosah bude oveľa väčší ako u konkurenčných spoločností. Nezanedbateľnou je aj skutočnosť, že služby od Googlu (ako napríklad Classroom) sú vo veľkom využívané vo vzdelávacích inštitúciách.

Umelá inteligencia od Googlu tak má potenciál doslova ovplyvniť spôsob, akým ľudia vnímajú svet a históriu. A do tohto procesu budú zahrnuté aj politické presvedčenia jej tvorcov.

Zobraziť diskusiu
Súvisiace témy
Google
Ak máte otázku, tip na článok, návrh na zlepšenie alebo ste našli chybu, napíšte na redakcia@postoj.sk

Exkluzívny obsah pre našich podporovateľov

Diskusia k článkom je k dispozícii len pre tých, ktorí nás pravidelne
podporujú od 5€ mesačne alebo 60€ ročne.

Pridajte sa k našim podporovateľom.

Podporiť 5€
Ttoto je message Zavrieť