Umelá inteligencia prestala byť témou budúcnosti. Vstúpila do kancelárií, domácností aj detských izieb tak rýchlo, že väčšina organizácií a rodín nestihla vyhodnotiť, čo vlastne zavádza a aké dôsledky to prinesie. Nie je to žiadna výčitka. Je to popis stavu, s ktorým sa treba vysporiadať. Otázka dnes nie je, či AI používať, ale ako ju používať tak, aby sme nevzdávali kontrolu nad tým, na čom nám záleží.
Pozornosť musíme zamerať na tri oblasti: miesta, kde firmy pri zavádzaní AI najčastejšie zlyhávajú, výzvy, ktoré digitálne prostredie prináša rodinám s deťmi, a praktický spôsob, ako odlíšiť zmysluplné nasadenie technológie od obyčajnej reakcie na tlak trhu.
O týchto témach sme sa rozprávali s Libor Bešenyi (Co-CEO/CTO Xolution, začínal ako softvérový architekt, no svoju kariéru postupne prepojil s výskumom umelej inteligencie a jej aplikovaním v praxi), Vladimír Šucha (popredný slovenský vedec a profesor s bohatými skúsenosťami z riadiacich pozícií v štruktúrach Európskej komisie a v medzinárodnom akademickom prostredí) a Juraj Podroužek (pôsobí v Kempelenovom inštitúte, kde založil a vedie výskumný tím pre etiku a reguláciu umelej inteligencie).
Otázka dnes nie je, či AI používať, ale ako ju používať tak, aby sme nevzdávali kontrolu nad tým, na čom nám záleží.
Kde firmy zlyhávajú a prečo to nie je len technický problém?
Pri firemnom nasadzovaní AI nerobíme najčastejšiu chybu v technike, ale v organizácii a hodnotách. Firmy kupujú nástroj, implementujú ho do procesov a až neskôr začnú premýšľať o tom, čo vlastne chceli dosiahnuť a kto zodpovedá za výsledky. Juraj Podroužek z Kempelenovho inštitútu inteligentných technológií (KInIT) uvádza:
„Firmy veľmi často zavádzajú AI bez toho, aby si vopred položili základnú otázku: čo vlastne chceme, aby táto technológia robila a čo nechceme. Chýba im etický rámec nielen v zmysle hodnôt, ale aj procesne – kto rozhoduje, kto kontroluje, kto nesie zodpovednosť, ak systém urobí chybu.“
Tento deficit nie je náhodný. Organizácie sú pod tlakom. Konkurencia nasadzuje AI, manažment tlačí na digitalizáciu, a rozhodnutia sa prijímajú rýchlo. V takejto atmosfére firmy etické zvažovanie ľahko odsúvajú na koniec zoznamu priorít alebo ho delegujú na IT oddelenie, ktoré na to nemá kompetencie ani právomoci.

Zodpovednosť sa nedá delegovať na algoritmus
Vladimír Šucha, ktorý sa dlhodobo venuje AI, upozorňuje, že problém má aj hlbšiu rovinu. Súvisí s tým, ako organizácie rozumejú samotnej podstate AI rozhodnutí:
„AI systémy nie sú neutrálne. Obsahujú hodnoty ich tvorcov, zaujatosti trénovacích dát, predpoklady o tom, čo je normálne a žiaduce. Ak firma nevie, aké hodnoty sú zabudované v systéme, ktorý nasadzuje, nemôže ani vedieť, čo vlastne zavádzajú do svojej kultúry a procesov.“
Osobitnou oblasťou, kde zodpovednosť nesmie byť zverená strojom, sú personálne rozhodnutia. Nábor, hodnotenie zamestnancov, prepúšťanie, kariérny postup. To sú oblasti s priamym dopadom na ľudský život. AI môže v týchto oblastiach pomôcť (triediť životopisy, analyzovať vzory výkonu), ale nesmie nahradiť ľudský úsudok. Podroužek to formuluje ako zásadný princíp:
„Rozhodnutia, ktoré sa dotýkajú dôstojnosti, práv a životov ľudí, musia zostať v rukách ľudí. AI môže byť nástrojom, môže dávať odporúčania, ale konečná zodpovednosť musí byť jasne priradená konkrétnej osobe. Inak sa organizácia zbavuje nielen zodpovednosti, ale aj schopnosti vysvetliť, prečo sa rozhodla tak, ako sa rozhodla.“

Libor Bešenyi, ktorý má za sebou desiatky reálnych AI implementácií vo firmách, potvrdzuje, že najväčším zdrojom problémov v praxi nie je zlá technológia, ale zlé zadanie:
„90 % zlyhaní, ktoré som videl, má rovnaký koreň: firma nevedela, čo chce merať, ako bude vedieť, že to funguje, a kto bude za výsledok zodpovedný. Keď to nevieš pred spustením, po spustení sa to nevyrieši samo.“
Kde musí rozhodnutie zostať v rukách človeka?
Ako sme už spomenuli, v personálnych rozhodnutiach – nábor, hodnotenie, prepúšťanie. Okrem toho aj medicínske diagnózy a liečebné plány s priamym dopadom na pacienta. Právne posúdenia a súdne rozhodovanie. Výchovné a disciplinárne rozhodnutia voči deťom a mladistvým. Etické dilemy a rozhodnutia v hodnotovo konfliktných situáciách. Krízový manažment s vysokou neistotou a morálnou záťažou.
Podroužek ešte dopĺňa jeden rozmer, ktorý firmy podceňujú: transparentnosť voči zamestnancom a zákazníkom. Ľudia majú právo vedieť, ak s nimi komunikuje alebo ich hodnotí AI systém. Skrývanie pravdy nie je len neetické, je to hlavne hlúpa stratégia, ktorá nás časom pripraví o všetku dôveru.
„Transparentnosť nie je len etická požiadavka. Je to základná podmienka toho, aby ľudia mohli AI systémom rozumieť a kontrolovať ich. Ak nevieš, že ťa hodnotí algoritmus, nemôžeš sa ani opýtať, podľa akých kritérií, ani napadnúť rozhodnutie, ak je nespravodlivé,“ dodáva Podroužek.
Deti, chatboty a rodičovská dilema
Zatiaľ čo firmy zápasia s etickými rámcami a procesmi, doma sa odohráva iná, v mnohom naliehavejšia výzva. Deti a dospievajúci sú dnes prvou generáciou, ktorá vyrastá v prirodzenom kontakte s konverzačnou AI. Nie sú to len hry a zábava. Chatboty sa stávajú pomocníkmi pri domácich úlohách, zdrojom informácií, a v niektorých prípadoch aj náhradou za sociálnu interakciu.
Vladimír Šucha, ktorý sa dlhodobo zaoberá mentálnou odolnosťou v kontexte digitálnych transformácií, vníma túto situáciu so znepokojením, ale bez moralizácie:
„Problém nie je samotná AI v rukách detí. Ide o to, či ju používajú na to, aby rástli, alebo ako skratku, kvôli ktorej začnú ich vlastné myslenie a sociálne zručnosti zakrpatievať. Je to rozdiel medzi bicyklom, ktorý ti pomôže zájsť ďalej, a barlou, bez ktorej sa časom nevieš ani pohnúť.“
Riziko nie je abstraktné. Keď dieťa namiesto toho, aby premýšľalo, ako napísať esej, nechá chatbot esej napísať za neho, neprichádza len o cvičenie zo slovenčiny. Prichádza o tréning kritického myslenia, formulovania argumentov, práce s neistotou. Toto sú schopnosti, ktoré sa nedajú neskôr dohnať prečítaním manuálu.
Deti a dospievajúci sú dnes prvou generáciou, ktorá vyrastá v prirodzenom kontakte s konverzačnou AI.
Šucha upozorňuje aj na menej viditeľné riziko – emocionálnu závislosť na AI:
„Konverzačné AI sú navrhnuté tak, aby boli príjemné, empatické a dostupné non-stop. Pre dieťa alebo dospievajúceho, ktorý sa cíti nepochopený alebo osamelý, to môže byť veľmi atraktívna alternatíva k zložitým ľudským vzťahom. Ale ľudské vzťahy sú zložité práve preto, že nás rozvíjajú – a to AI nezastúpi.“
Čo teda môžu rodičia a školy robiť? Zákazy sú krátkozraké, deti nájdu cestu a navyše prídu o príležitosť naučiť sa pracovať s technológiou zodpovedne. Zmysluplnejší prístup je budovanie kritickej gramotnosti. Schopnosť klásť otázky o tom, odkiaľ informácia pochádza, prečo AI odpovedala práve takto, čo mohla vynechať alebo skresliť.
Praktické princípy pre rodičov a pedagógov
AI ako partner pri premýšľaní, nie náhrada za premýšľanie – klásť otázky spolu s dieťaťom. Vysvetliť, že AI môže byť presvedčivá a zároveň nesprávna, trénovať overovanie informácií. Nastaviť hranice nie zákazom, ale dohodou a rozhovorom o dôvodoch. Zachovať priestor pre zápisníky, rukopisy, dialóg tvárou v tvár – kvôli kognitívnemu rozvoju. Rozprávať sa doma o tom, čo chatbot povedal, prečo to mohlo byť tak a či s tým súhlasíme.
Bešenyi, ktorý je sám otec, dodáva pohľad z každodennej reality:
„Môj syn sa ma raz spýtal, či má zmysel učiť sa násobilku, keď to zaňho vypočíta telefón. Povedal som mu, že ak nevie, čo je desaťnásobok, nedokáže ani spoznať, kedy mu kalkulačka dáva nezmysel. Presne to isté platí pre AI – bez vlastného úsudku nemáš ako skontrolovať, čo ti hovorí.“
Škola stojí pred podobnou dilemou. Zákaz ChatGPT na hodinách je jednoduché administratívne riešenie, ale nepripravuje žiakov na realitu, v ktorej budú žiť. Zmysluplnejšou cestou je meniť typ úloh – od reprodukcie faktov k analýze, argumentácii a originálnej tvorbe. Tieto schopnosti sú ťažko zastupiteľné AI a zároveň sú to schopnosti, ktoré budú na trhu práce cenné práve preto, že ich stroje nenahrádzajú ľahko.

Skutočný prínos alebo módny trend, ako ich rozoznať?
Tlak na adopciu AI je dnes všadeprítomný. Investori sa pýtajú na AI stratégiu, konferencie sú plné panelových diskusií o budúcnosti práce, a v pracovných ponukách sa objavuje požiadavka na „znalosť AI nástrojov“ aj tam, kde pred rokom stačil Excel. V tomto prostredí je čoraz ťažšie odlíšiť, čo je skutočná transformácia a čo je len komunikačná reakcia na očakávania trhu.
Bešenyi má k tejto téme priamy pohľad z praxe:
„Pýtam sa vždy jednu jednoduchú otázku: aký konkrétny problém chceš vyriešiť a ako budeš vedieť, že si ho vyriešil? Ak mi firma nevie odpovedať, znamená to, že hľadajú AI riešenie, ale nemajú problém. Alebo majú problém, ale nevedia ho pomenovať – a to je ešte horšie.“
Skutočný prínos AI sa prejavuje na konkrétnych veličinách: ušetrený čas, znížená chybovosť, rýchlejšie rozhodovanie s lepšími podkladmi, uvoľnenie kapacít pre prácu s vyššou pridanou hodnotou. Tieto prínosy sú merateľné a mali by byť merané – ideálne pred spustením (baseline) a po ňom.
Podroužek dopĺňa dôležitý kontext: meranie prínosov nesmie byť jednorozmerné. Efektivita nie je jediným kritériom.
„Môžeš mať systém, ktorý je neuveriteľne efektívny, ale pritom diskriminuje určité skupiny, narúša súkromie alebo vytvára závislosti, ktoré organizácia neskôr nevie zvládnuť. Etické hodnotenie AI nie je brzdenie inovácie – je to podmienka toho, aby inovácia priniesla skutočnú hodnotu a nie len krátkodobý zisk za cenu dlhodobých škôd.“
Najväčšie riziko AI? Strata ľudského úsudku
Šucha ponúka perspektívu z hľadiska organizačnej kultúry a ľudského kapitálu. Upozorňuje, že AI transformácia, ak nie je dobre vedená, môže erodovať práve to, čo organizáciu robí odolnou a inovatívnou – schopnosť ľudí tvorivo myslieť, spolupracovať a preberať zodpovednosť:
„Najväčšie riziko AI v organizáciách nie je, že nahradí pracovné miesta – to sa deje a bude diať. Riziko je, že oslabí ľudský úsudok: schopnosť ľudí rozhodovať sa, niesť zodpovednosť a rozvíjať sa. Ak AI preberá nielen rutinné úlohy, ale aj úsudok, staneme sa závislými na systémoch, ktorým nerozumieme a ktoré nekontrolujeme.“
Kde teda začať – pre firmu aj pre jednotlivca? Odpovede všetkých troch respondentov sa zhodujú v jednom bode: začnite malým a konkrétnym. Nie transformáciou celej organizácie, ale jedným procesom, kde AI prínos dáva zmysel a kde vie zodpovedná osoba sledovať výsledky.
Bešenyi uzatvára s praktickým odporúčaním, ktoré odráža roky terénnych implementácií:
„Najlepšie implementácie AI, ktoré som videl, mali jedno spoločné: začali od ľudí, nie od technológie. Spýtali sa tímov, čo ich zdržuje, čo ich frustruje, čo by ušetrilo ich čas – a potom hľadali, či AI môže pomôcť práve tam. Nie naopak.“
Zodpovednosť ako kompetencia
Etickú AI neriešia len filozofi či regulačné úrady. Túto praktickú kompetenciu si musia osvojiť manažéri, rodičia, učitelia a každý, kto rozhoduje o nasadení technológie. Od ľudí vyžaduje schopnosť klásť nepríjemné otázky ešte pred prijatím rozhodnutia a ochotu prijať odpoveď „ešte nie“ alebo „nie takto“.
Z diskusie vyvodzujeme tri princípy, ktoré preveria našu vytrvalosť v praxi: musíme jasne určiť, kde si rozhodovanie ponechajú ľudia, budovať kritické myslenie skôr, než ho budeme brániť, a merať skutočné prínosy namiesto sledovania módnych vĺn.
AI bude ďalej rásť a meniť našu prácu i životy. Otázka nestojí tak, či ju prijmeme, ale či si zachováme schopnosť riadiť ju podľa toho, na čom nám skutočne záleží.
TEXT: Natália Stašíková
FOTO: INOVATO, KInIT