Jazykove modely AI – rizikový zdroj informácií, alebo príležitosť?
V súčasnej dobe sa v kontexte AI (Artificial Intelligence) diskutujú najmä pojmy: spracovanie informácií, plnenie úloh, rozhodovanie.
Ak sa pozrieme na tieto pokročilé aplikácie cez funkcie, tak napríklad:
- Komunikácia
 
- Jazyková (Jazykové modely)
 - Obrazová
 - Zvuková
 - Automatizácia
 - Generovanie
 - Predikcia
 - …
 
Ako vzorku si môžeme porovnať 3 jazykové modely (zjednodušenie je cielené):
- Chat GPT
 
– limitovaná funkčnosť (platené funkcie)
+ komplexnosť
+ rozšírené funkcie
- Deepseek
 
– potreba prihlásenia
+ plná funkcionalita
+ komplexnosť
- Perplexity
 
– limitovaná funkčnosť (platené funkcie)
– preferuje komunikáciu v angličtine
+ malý počet chýb (nesprávnych odpovedí, riešení)
Všetky 3 modely ale generujú aj chyby!
Napríklad:
Otázka: …. (akákoľvek:)
Odpoveď AI: Nemám prístup na internet (odpoveď poslaná cez internet:)
Otázka: Aký je maximálny dosah WiFi siete?
Odpoveď AI: Niekoľko kilometrov (vďaka použitiu opakovačov/repeater).
* Reálny dosah Wifi routera cca 20-40 metrov.
Riziká jazykových modelov (november/2025):
- Rozhodovacie pravidlá (napr.: skreslovanie odpovedí, úmyselné ignorovanie/“black list”, …)
 - Mikro odpovede (napr.: ak užívateľ nedostatočne rozumie kontextu, téme)
 - Neúplné odpovede (napr.: zavádzajúci text, ktorý môže viesť k nesprávnym rozhodnutiam)
 - Chybné odpovede (napr.: drobné chyby v inak kvalitne spracovanom texte/odpovedi)
 - …
 
Skúška správnosti:
Ak máte dostatok času, tak dajte 1 rovnakú otázku spracovať viacerým AI modelom.
Porovnajte odpovede, rozsah, počet chýb, ….
Zhrnutie:
Jazykové modely AI sa dajú použiť ako ĎALŠÍ zdroj informácií (primárne na OVEROVANIE informácií).
Určite by mali byť zahrnuté v systéme riadenia kontinuity a informačnej bezpečnosti.