Geoffrey Hinton, umělá inteligence a etický problém společnosti Google

Dr. Binoy Kampmark

17.5.2023 Komentáře Témata: AI 972 slov

O nebezpečí umělé inteligence, ať už skutečné nebo domnělé, se začalo mluvit horečně, z velké části kvůli rostoucímu světu generativních chatovacích botů. Při zkoumání kritiků je třeba věnovat pozornost jejich motivaci. Co chtějí získat tím, že zaujmou určitý postoj? V případě Geoffreyho Hintona, neskromně považovaného za „kmotra umělé inteligence“, by měla být kontrola ostřejší než u většiny ostatních.

Hinton pochází z „konekcionistické“ školy myšlení v umělé inteligenci, kdysi zdiskreditovaného oboru, který předpokládá neuronové sítě napodobující lidský mozek a obecněji lidské chování. Takový pohled je v rozporu se „symbolisty“, kteří se zaměřují na UI jako na strojově řízenou, doménu specifických symbolů a pravidel.

John Thornhill, který píše pro Financial Times, si všímá Hintonova vzestupu spolu s dalšími členy konekcionistického kmene: „S tím, jak se počítače stávaly výkonnějšími, datové soubory explodovaly a algoritmy se stávaly sofistikovanějšími, byli výzkumníci hlubokého učení, jako je Hinton, schopni dosahovat stále působivějších výsledků, které již nemohly být mainstreamovou komunitou AI ignorovány.“

Časem se systémy hlubokého učení staly módou a svět velkých technologií vyhledával taková jména, jako byl Hinton. Spolu se svými kolegy začal pobírat absurdní platy na vrcholných pozicích ve společnostech Google, Facebook, Amazon a Microsoft. Ve společnosti Google Hinton působil jako viceprezident a inženýrský pracovník.

Hintonův odchod ze společnosti Google, konkrétně jeho role vedoucího týmu Google Brain, roztočil kolotoč spekulací. Podle jedné z nich k němu došlo proto, aby mohl kritizovat právě tu společnost, jejímž úspěchům po léta pomáhal. Bylo to jistě trochu přitažené za vlasy vzhledem k Hintonově vlastní roli při tlačení káry generativní umělé inteligence. V roce 2012 byl průkopníkem samoučící se neuronové sítě, která dokázala se značnou přesností identifikovat běžné objekty na obrázcích.

Zajímavé je i načasování. Jen o něco více než měsíc dříve zveřejnil Institut budoucnosti života otevřený dopis, v němž varoval před strašlivými dopady umělé inteligence, které přesahují špatnost GPT-4 OpenAI a dalších příbuzných systémů. Byla v něm položena řada otázek: „Měli bychom nechat stroje zaplavit naše informační kanály propagandou a nepravdou? Měli bychom automatizovat všechna pracovní místa, včetně těch, která nás naplňují? Měli bychom vyvinout nelidské mozky, které by nás nakonec mohly přečíslit, přechytračit, zastarat a nahradit? Měli bychom riskovat ztrátu kontroly nad naší civilizací?

V dopise, který vyzýval k šestiměsíční pauze ve vývoji takto rozsáhlých projektů umělé inteligence, se objevila řada jmen, která poněkud snižovala hodnotu varování; mnozí signatáři ostatně sehráli zdaleka ne zanedbatelnou roli při vytváření automatizace, zastarávání a podpoře „ztráty kontroly nad naší civilizací“. Proto když se pod projekt vyzývající k pozastavení technologického vývoje podepíší lidé jako Elon Musk nebo Steve Wozniak, detektory hlouposti na celém světě by se měly rozrušit.

Stejné zásady by měly platit i pro Hintona. Zjevně hledá jiné pastviny, a přitom se předháněl v silné sebepropagaci. Ta má podobu mírného odsouzení právě té věci, za jejíž vznik byl zodpovědný. „Myšlenka, že by tahle věc mohla být skutečně chytřejší než lidé – pár lidí tomu věřilo. Ale většina lidí si myslela, že je to hodně mimo. A já jsem si myslel, že je to úplně mimo. [...] To už si samozřejmě nemyslím.“ Člověk by si myslel, že by to měl vědět lépe než většina ostatních.

Na Twitteru Hinton zažehnal všechny náznaky, že odchází z Googlu s kyselou náladou nebo že má v úmyslu se na jeho činnost vykašlat. „Cade Metz dnes v NYT naznačuje, že jsem odešel z Googlu, abych mohl kritizovat Google. Ve skutečnosti jsem odešel proto, abych mohl mluvit o nebezpečí umělé inteligence, aniž bych bral v úvahu, jaký to má dopad na společnost Google. Google se zachoval velmi zodpovědně.“

Tato poněkud bizarní forma argumentace naznačuje, že jakákoli kritika umělé inteligence bude existovat nezávisle na samotných společnostech, které takové projekty vyvíjejí a profitují z nich, přičemž vývojáři – jako Hinton – zůstávají imunní vůči jakémukoli obvinění ze spoluviny. Skutečnost, že se zdálo, že není schopen vyvinout kritiku AI nebo navrhnout regulační rámce v rámci samotného Googlu, podkopává upřímnost tohoto kroku.

V reakci na odchod svého dlouholetého kolegy Jeff Dean, hlavní vědecký pracovník a šéf Google DeepMind, také prozradil, že vody zůstaly klidné, což všechny uspokojilo. „Geoff dosáhl zásadních průlomů v oblasti umělé inteligence a my si vážíme jeho desetiletého přínosu pro společnost Google [...] Jako jedna z prvních společností, která zveřejnila Zásady umělé inteligence, jsme i nadále odhodláni k odpovědnému přístupu k umělé inteligenci. Neustále se učíme, abychom porozuměli vznikajícím rizikům a zároveň odvážně inovovali.“

Řada lidí z komunity AI tušila, že se chystá něco jiného. Počítačový vědec Roman Jampolskij v reakci na Hintonovy poznámky trefně poznamenal, že obavy o bezpečnost umělé inteligence se vzájemně nevylučují s výzkumem v rámci organizace – a ani by neměly. „Měli bychom normalizovat zájem o bezpečnost AI, aniž byste museli opustit svou práci [sic] výzkumníka v oblasti AI.“

Google má jistě něco, co by se dalo nazvat etickým problémem, pokud jde o vývoj AI. Organizace se spíše snaží utlumit interní diskuse na toto téma. Margaret Mitchellová, bývalá členka týmu Google pro etickou umělou inteligenci, který v roce 2017 spoluzakládala, dostala padáka poté, co provedla interní šetření ohledně propuštění Timnita Gebrua, který byl členem stejného týmu.

Gebru byl odvolán v prosinci 2020 poté, co se stal spoluautorem práce, která se zabývala nebezpečími plynoucími z používání umělé inteligence vycvičené a vyžrané na obrovském množství dat. Gebru i Mitchell se také kriticky vyjadřovali k nápadnému nedostatku rozmanitosti v oboru, který druhý jmenovaný popsal jako „moře chlapů“.

Co se týče Hintonových vlastních filozofických dilemat, nejsou zdaleka tak sofistikovaná a pravděpodobně mu nedělají potíže se spánkem. Ať už hrál Frankenstein jakoukoli roli při stvoření právě toho monstra, před nímž nyní varuje, jeho spánek to pravděpodobně neznepokojí. „Utěšuji se normální výmluvou: kdybych to neudělal já, udělal by to někdo jiný,“ vysvětlil Hinton deníku New York Times. „Je těžké si představit, jak můžete zabránit špatným aktérům v tom, aby toho využili ke špatným věcem.“

Geoffrey Hinton, AI, and Google’s Ethics Problem vyšel na Global Reseach 15.5.2023. Přelad v ceně 387 Kč Zvědavec.

Známka 1.4 (hodnotilo 24)

Oznámkujte kvalitu článku jako ve škole
(1-výborný, 5-hrozný)

1  2  3  4  5 

Káva pro Zvědavce

33

Být v obraze něco stojí.
Připojte se k ostatním a staňte se
také sponzorem Zvědavce, stačí
částka v hodnotě jedné kávy měsíčně.

Za měsíc duben přispělo 66 čtenářů částkou 11 638 korun, což je 33 % měsíčních nákladů provozu Zvědavce.

Bankovní spojení: 2000368066/2010

IBAN: CZ4720100000002000368066
Ze Slovenska 2000368066/8330
IBAN: SK5883300000002000368066
BIC/SWIFT: FIOBCZPPXXX

[PayPal]

Bitcoin:
bc1q40mwpus89teua4ruhxrtal6v45lc3ye5a9ttud

Další možnosti platby ›

Ve zkratce

Apollo 11 – Přistáli Američané na Měsíci?18.04.24 19:58 USA 4

Nové informace o kauze „Ostatkový kříž“18.04.24 18:48 Česká republika 0

Třetina Ukrajinců živoří 18.04.24 10:57 Česká republika 6

Rakušan neříkal pravdu17.04.24 16:43 Česká republika 3

Lidé nebděli, lidé mlčeli, aneb “jak pr.s..t naši vlast“16.04.24 19:44 Česká republika 1

Už i Německu kolabuje rozvodná síť16.04.24 17:39 Německo 2

Kávička s Bidenem nás vyjde pěkně draho16.04.24 15:24 Česká republika 4

Takže je to PRAVDA! FBI konečně vyšetřuje útok na Baltimore Bridge jako kybernetický16.04.24 12:31 USA 2

Euro 7: Rada EU přijala nová pravidla pro emisní limity osobních a nákladních automobilů a dodávek15.04.24 19:02 Evropská unie 3

"Nikdy jsem neslyšela žádné odsouzení ukrajinských úderů proti Rusku": Marie Zacharová se vyjádřila k výzvě Izraele, aby odsoudil íránské údery.15.04.24 18:51 Rusko 1

Neuroložka, která nemlčí. Končí u ní lidé s následky. Stát je ignoruje.15.04.24 06:59 Česká republika 0

Rozpočet USA - 2024: kolaps a následky15.04.24 06:48 USA 0

Írán zaútočil na Izrael14.04.24 05:58 Írán 3

Ceny elektřiny pro obyvatele, včetně daní, přepočteno dle kupní síly13.04.24 10:40 Neurčeno 1

Spoluzakladatel Greenpeace otevřeně: „změna klimatu“ je podvod!12.04.24 21:32 Neurčeno 0

Pandemická „ďábelská“ smlouva, Green Deal v Německu a Gender agenda – Velký rozhovor o aktuálních informacích se Zdeňkem Chytrou.12.04.24 20:12 Evropská unie 1

Jaderný poplach v Polsku po zásahu ruské hypersonické rakety Kh-47 Kinzhal12.04.24 19:14 Ukrajina 0

Vysokoškolská pedagožka vyškolila Fialu12.04.24 06:31 Česká republika 1

Politico - v rámci EU nakupuje Francie nejvíce LNG z Ruska11.04.24 18:21 Francie 0

Šialený migračný pakt zmení Európu na Afriku. Hrozba aj pre Slovensko!11.04.24 17:56 Slovensko 3

Měnové kurzy

USD
23,74 Kč
Euro
25,28 Kč
Libra
29,53 Kč
Kanadský dolar
17,24 Kč
Australský dolar
15,24 Kč
Švýcarský frank
26,03 Kč
100 japonských jenů
15,36 Kč
Čínský juan
3,28 Kč
Polský zloty
5,83 Kč
100 maď. forintů
6,41 Kč
Ukrajinská hřivna
0,60 Kč
100 rublů
25,22 Kč
1 unce (31,1g) zlata
56 542,60 Kč
1 unce stříbra
671,01 Kč
Bitcoin
1 499 268,76 Kč

Poslední aktualizace: 18.4.2024 21:00 SEČ

Tuto stránku navštívilo 2 702