"Kmotr AI" Geoffrey Hinton varuje: umělá inteligence může být stejně nebezpečná jako jaderné zbraně

07.09.2025

Geoffrey Hinton, označovaný za „kmotra umělé inteligence“, znovu otevřel debatu o bezpečnosti a regulaci AI. V nedávném rozhovoru přirovnal potenciál zneužití AI k hrozbě jaderných zbraní. Podle něj může vývoj generativních modelů umožnit i „obyčejným lidem na ulici“ vytvářet nebezpečné biologické zbraně. Jeho varování přichází v době, kdy AI zažívá prudký rozmach a zároveň vyvolává čím dál větší společenské obavy. Oproti Hintonovi ale například Yann LeCun ze společnosti Meta tvrdí, že AI má zatím zásadní limity a není důvod k panice.


Hintonovo varování: bioterorismus a ztráta kontroly

Hinton upozornil, že schopnost AI generovat texty, obrazy či dokonce návrhy vědeckých experimentů se může stát obrovským rizikem, pokud by se dostala do rukou lidí s nebezpečnými úmysly. Obává se především oblasti bioterorismu – umělá inteligence by totiž mohla pomoci s vytvářením nových virů či zneužitím genetických postupů.

„Normální člověk na ulici by mohl s pomocí AI získat znalosti, které byly donedávna dostupné jen elitním vědcům,“ varoval Hinton. Podle něj se tak snižuje práh pro potenciální katastrofu.


Kontrastní pohledy: LeCun a další experti

Zatímco Hinton bije na poplach, jiní vědci jeho obavy mírní. Yann LeCun, hlavní AI vědec v Meta, tvrdí, že současné systémy jsou stále příliš omezené na to, aby představovaly tak velké riziko. Podle něj se přeceňuje schopnost AI rozumět realitě a kontextu – bez čehož by například skutečná výroba biologických zbraní byla nemožná.

Rozdílné názory mezi Hintonem a LeCunem dobře ilustrují rozdělenou odbornou komunitu: jedni volají po rychlé regulaci a přísných pravidlech, druzí zdůrazňují, že přílišná hysterie by mohla zbrzdit inovace.


Regulace a bezpečnostní rámec

Otázka, jak umělou inteligenci regulovat, je stále otevřená. Evropská unie připravuje AI Act, který by měl zavést povinnosti pro firmy podle míry rizika jejich systémů. Podobně v USA i Asii probíhají diskuze o etických standardech a bezpečnostních mantinelech.

Praktická otázka pro běžné uživatele zní: co to znamená pro nás?

  • Technologie, které dnes používáme v chytrých telefonech nebo na internetu, budou čím dál častěji vznikat pod přísnější kontrolou.
  • Mohlo by dojít k omezení dostupnosti některých nástrojů (např. AI modelů pro generování kódu či vědeckých textů).
  • Na druhou stranu by vyšší bezpečnostní standardy mohly zabránit jejich zneužití.

Proč je téma důležité právě teď

Vývoj AI postupuje rychleji než legislativa. Hintonovo varování proto působí jako budíček – připomíná, že nestačí jen obdivovat technologický pokrok, ale je třeba uvažovat i o jeho odvrácené straně. Debata o tom, zda AI představuje revoluční nástroj nebo hrozbu, se bude v příštích letech jen vyostřovat.


Závěr

Hintonovo srovnání AI s jadernými zbraněmi může znít dramaticky, ale odráží reálné obavy, že lidstvo si nemusí být schopno s rychlým vývojem poradit. Ať už se přikloníme k jeho skepsi, nebo k optimističtějšímu pohledu LeCuna, jedno je jisté: umělá inteligence se stává jedním z nejdůležitějších témat 21. století – a její regulace i odpovědné využívání se dotknou každého z nás.

Tech monitor je online magazín o technologiích budoucnosti. Sledujeme nejnovější trendy v umělé inteligenci, robotice, softwaru, mobilních technologiích a digitálním světě. Přinášíme aktuální zprávy, analýzy i predikce vývoje – srozumitelně, věcně a s přehledem.