fb

Pět způsobů, jak AI změní náš svět k nepoznání

AI_analyzuje_data-PR.jpegUmělá inteligence (AI) a strojové učení (ML) přináší už více než 10 let podnikům i výzkumníkům stále možnosti. Ať už jde o využití prediktivní analýzy k předvídání údržby zařízení, nástroje počítačového vidění, které dávají oči robotům na automatických montážních linkách, nebo digitální dvojčata sloužící k simulaci fungování továren, měst, a dokonce i celých ekonomik, seznam aplikací poháněných AI je dlouhý a stále se prodlužuje.

Žádný z těchto průlomů však nezapůsobil na představivost jednotlivců a podniků tak jako generativní umělá inteligence (GenAI). V uplynulých dvou letech prošel svět v důsledku nástupu velkých jazykových modelů (LLM), které tvoří základ aplikací generativní AI, doslova tektonickým posunem. A dopady tohoto posunu budeme pociťovat ještě po celá desetiletí.

Naše schopnost klást otázky chatbotům generativní AI v přirozeném jazyce a získávat odpovědi čerpající téměř z veškerých zaznamenaných lidských znalostí ovlivní každou činnost založenou na práci s informacemi.

Vyrostl jsem v Silicon Valley, kde jsme neustále čekali na nějaký „velký zlom“, který by mohl přes noc změnit naše životy. I když je tato metafora v technologickém světě často nadužívaná, tentokrát je zcela na místě. Až se v budoucnu budeme ohlížet zpět, uvidíme jasnou hranici: život před LLM a život po nich.

Jak přesně bude tato budoucnost vypadat? Pojďme se podívat do roku 2030 a představit si, jak bude vypadat naše spolupráce s technologiemi umělé inteligence budoucnosti.

Modely AI nahradí podnikové operační systémy a aplikace

Dnes využíváme ke zpracování základních úloh, jako je vyhledávání v databázích, odesílání zpráv nebo tvorba dokumentů sadu aplikací a nástrojů, které důvěrně známe. V budoucnu však požádáme výkonného agenta založeného na umělé inteligenci, aby nám poskytl konkrétní odpověď nebo vykonal nějaký úkol. Tento agent si vybere AI modely, které se prokázaly jako bezpečné a v souladu s veškerými předpisy, v reálném čase vytvoří nebo přizpůsobí aplikace a vyjedná podmínky spolupráce či využití tak, aby odpovídaly vašim zájmům. Váš AI agent bude současně řešit rovnice z oblasti fyziky, ekonomie, práva a dalších oborů, aby určil nejlepší způsob realizace jednotlivých kroků, přičemž bude koordinovat další modely a v případě potřeby vyhledávat potřebné informace z externích zdrojů. Navíc si zapamatuje vaše předchozí požadavky a bude předvídat ty budoucí, přizpůsobí se vašemu chování a bude pro něj vytvářet vysoce personalizované systémy.

Tvorba a provoz AI modelů se stanou transparentnějšími

Dnes datoví vědci a AI inženýři, kteří vytvářejí špičkové modely umělé inteligence, často nedokážou vysvětlit, jak model dospěl ke konkrétnímu výsledku. Enormní rozsah vstupních dat, povaha trénování a obrovský výpočetní výkon potřebný k vytvoření modelu činí tyto modely neuchopitelnými a obtížně vysvětlitelnými. A zatímco v některých případech je to přijatelné, při nasazení pro konkrétní účely ve vysoce regulovaných podnicích bude klíčem k přijetí AI modelů transparentnost.

Jakmile se tyto modely stanou klíčovými pro tvorbu důležitých rozhodnutí, dojde k opakovanému procesu tvorby legislativy, soudních sporů, vyjednávání a inovací mezi regulátory, podniky a komunitami, v nichž tyto organizace působí. Tento proces bude pravděpodobně i nadále odrážet rozdíly v toleranci rizik, hodnotách a prioritách napříč jednotlivými odvětvími i geografickými oblastmi.


AI_a_programov__n__-PR.jpeg

AI modely budou také muset být transparentnější ohledně spotřebovávaných zdrojů. Nemůžeme totiž mluvit o budoucnosti AI, aniž bychom vzali v úvahu bezprecedentní množství elektřiny, vody, odborných kapacit a financí potřebných k natrénování špičkového modelu. A tento trend bude dále sílit. Současná infrastruktura sociálních sítí zvládne stovky tisíc vyhodnocení dat za hodinu na jednoho uživatele. Ale co když budeme v budoucnosti chtít nabídnout umělou inteligenci, která bude pro každého z 8 miliard lidí pracovat nepřetržitě, například analyzovat data, reagovat na podněty okolního světa a dynamicky se přizpůsobovat, klidně i milionkrát během jediné hodiny? Taková úroveň interakce s AI se v budoucnu očekává, ale zároveň by znamenala ohromnou zátěž na výpočetní výkon, energii i infrastrukturu.

Provozovatelé základních modelů budou muset otevřeně uvádět původ energie, infrastruktury a dat, z nichž jejich modely vycházejí, aby organizace mohly činit informovaná rozhodnutí o tom, zda jsou přínosy poskytované AI modely úměrné vynaloženým nákladům.

Udržitelnost se stane globální prioritou a AI nám pomůže ji dosáhnout

Každý prvek výpočetní infrastruktury ve světě, každá součástka v každém racku v každém datovém centru, bude muset být optimalizována z hlediska udržitelnosti. Lidé s rozhodovací pravomocí budou muset posuzovat, zda hodnota každého obchodního výsledku převyšuje energetické náklady potřebné k jeho dosažení. Od těžby surovin přes výrobu a nasazení infrastruktury ve velkém měřítku, které umožní spojit data a energii pro trénování a inferenci modelů, budeme muset evidovat každý joule energie, každý bajt informací a každý litr spotřebované vody.

Jedním z hlavních důvodů, proč společnost Hewlett Packard Enterprise zavedla přímé kapalinové chlazení (DLC) ve svých systémech vysoce výkonných výpočetních systémech, je jeho energetická efektivita. Kapalinové chlazení může snížit uhlíkovou stopu a náklady na chlazení datového centra až o 90 % ročně. I když jsme tuto technologii vyvíjeli desítky let pro nejnáročnější superpočítačové aplikace ve vědě a inženýrství, nyní se přesouvá do datových center ve čtyřicetinásobném rozsahu v rámci gigawattových nasazení AI. Pro představu: nejrychlejší světové exascale superpočítače Frontier, Aurora a El Capitan pracují s výkonem okolo 25 megawattů, což odpovídá spotřebě více než 20 000 průměrných amerických domácností. Datová centra budoucnosti budou spotřebovávat více než jeden gigawatt, což odpovídá spotřebě přibližně 833 000 průměrných amerických domácností.

Společnost HPE se zavázala posouvat hranice efektivity ve všech oblastech informačních technologií: ve výpočetním výkonu, úložištích i síťové infrastruktuře. Digitální dvojčata využívající posilované učení (reinforcement learning) mohou optimalizovat potřeby rozsáhlých systémů v oblasti energie, dopravy a komunikace tím, že identifikují ztráty v energetickém ekosystému, předvídají výkyvy v poptávce a navrhují způsoby efektivnější správy sítě s využitím obnovitelných zdrojů energie.

Nové generace LLM si vyžádají nové výpočetní přístupy

Současné nejpokročilejší velké jazykové modely se škálují na biliony parametrů neboli počet proměnných, které lze upravovat za účelem zvýšení přesnosti predikcí modelu. Zatím není jisté, zda větší počet parametrů skutečně povede k modelům s vyšším výkonem. Ale pokud ano, příští generace modelů si vyžádá řádově více parametrů, ještě větší objemy dat a výpočetní výkon v řádech gigawattů.

Výzkumný institut Epoch AI odhaduje, že dosud nejdražší model, Gemini Ultra, má kombinované kapitálové a provozní náklady ve výši 800 milionů dolarů. Pokud bude vývoj velkých jazykových modelů pokračovat tímto tempem, mohli bychom už během následující dekády vynakládat na trénování jediného modelu částky srovnatelné s dnešním celosvětovým IT rozpočtem. Jinými slovy, narazíme na hranici našich schopností trénovat větší modely s využitím stávajících technologií. I kdyby nové technologie a algoritmy začaly dosahovat efektivity trénování srovnatelné s biologickou inteligencí, samotné provádění inferencí nad těmito modely - milionkrát za hodinu pro každého z 8 miliard lidí - bude představovat ještě větší výzvu. Můžeme si vůbec dovolit poskytnout každému přístup k budoucnosti optimalizované pomocí AI?

Fotonické výpočty, které využívají světelné vlny pro ukládání a zpracování dat, by nám mohly umožnit vytvořit zařízení s nízkou latencí a nízkou spotřebou energie, schopná provádět inferenci přímo na okraji sítě (edge computing). Avšak trénování příští generace LLM modelů si pravděpodobně vyžádá technologie a algoritmy, které jsou zatím ve fázi vývoje ve výzkumných týmech, jako je ten náš v Hewlett Packard Labs. Konečným cílem je vytvořit umělou inteligenci, která bude schopná skutečného deduktivního uvažování. Akcelerátory založené na fyzikálních principech mohou být klíčem k nové dimenzi chování AI, která nás nakonec dovede k obecné umělé inteligenci (AGI – Artificial General Intelligence).

Největší dopad bude mít AI na lidské chování

Stejně jako se lidé za poslední tři dekády přizpůsobili počítačům, internetu a chytrým telefonům, musíme se nyní přizpůsobit umělé inteligenci a naučit se ji efektivně využívat. Náš generální ředitel Antonio Neri rád říká, že by každý v HPE měl mít AI jako vedlejší specializaci. Tím má na mysli, že každý tým a každý jeho člen by měl zkoumat možnosti této technologie a zamyslet se, zda by to, co dnes dělá, nešlo dělat efektivněji a úsporněji právě s využitím AI.

Odpověď nebude vždy kladná, ale každý jednotlivec v každé organizaci by měl být ochoten se touto otázkou vážně zabývat. Nemyslím si, že nám roboti vezmou práci, ale pevně věřím, že pokud chcete být úspěšní ve vědě, inženýrství, průmyslu nebo i v umění, musíte ovládat umělou inteligenci. Pokud nebudete umět využívat tuto technologii, může vás nahradit někdo, kdo to umí.

Kirk Bresniker Kirk Bresniker
Autor článku je hlavní architekt laboratoří Hewlett Packard Labs ve společnosti Hewlett Packard Enterprise.

Kalendář akcí
Konference - Semináře - Školení
Časopis IT Systems/Speciál
Aktuální číslo časopisu IT Systems Aktuální číslo časopisu příloha #1
Archív časopisu IT Systems
IT Systems 3 IT Systems 1-2 IT Systems 12 IT Systems 11
Archív časopisu IT Systems Special
Aktuální číslo časopisu příloha #1 Aktuální číslo časopisu příloha #1 Aktuální číslo časopisu příloha #1 Aktuální číslo časopisu příloha #1