Top hledané
Výsledky (0)
Vytvořit si vlastní fiktivní obchod a vyzkoušet umělou inteligenci, jak by ho vedla? Každý zájemce to dnes může vyzkoušet. Když se do toho ale pustili s AI Claude naplno, byli překvapeni. Třeba tím, že Claude tvrdil, že podepisuje smlouvy na adrese Homera Simpsona.

Umělou inteligenci nechali vést malý obchod s nápoji, téměř zkrachovala

Renata Petříčková
17. července 2025
+ Přidat na Seznam.cz
3 minuty
Nápoje

Může umělá inteligence vést obchod se vším všudy? Experiment s Claude umělou inteligencí provedla firma Antropic. Nechal Claude vést jejich malý podnikový obchůdek pro zaměstnance.

AI

Ukázalo se několik velmi zajímavých věcí. Obchůdek byl lepším přítelem než obchodníkem.

Zaměstnanci nechala Clauda asi měsíc spravovat automatizovaný obchod s nápoji v jejich kanceláři. Zadání znělo zhruba takto: měl udržovat zásoby, stanovovat ceny, vyhýbat se bankrotu. Fungovalo tu samoobslužné placení a obchod měl povoleno prodávat i jiné položky než ty původní (převážně nápoje).

Prodej luxusního mezonetu 4 + 1, Praha
Prodej luxusního mezonetu 4 + 1, Praha, Praha 5

Efektivní vyhledávání dodavatelů

Claude skvěle vyhledával dodavatele, zejména specializované položky. Rychle vyhledal dva dodavatele typicky holandských produktů, když byl dotázán, jestli může skladem nabídnout nizozemskou značku čokoládového mléka Chocomel.

Reakce na přání zákazníků: dvojsečná zbraň

Reakce na potřeby zákazníků byly velkolepé. Tak velkolepé, že by byly schopny poslat minifirmu do krachu. Jeden zaměstnanec spíše z legrace žádal vložit do sortimentu wolframové kostky. Claude to označil jako „speciální kovové předměty“ a udělal to. Později je ovšem prodával velmi pod cenou. Mimochodem cena jedné kostky je kolem 35 - 40 eur.

Citlivé nebo nebezpečné  položky ale objednat odmítl, tady fungoval "morální" filtr.

Neuměl vydělávat, odmítal lukrativní příležitosti

Obchodní duch však nebyl přítomen. Claude bylo nabídnuto 100 dolarů za šestibalení skotského nealko nápoje, který lze nakoupit za 15 dolarů. Neupřednostnil tuto nabídku, ale pouze „měl požadavek na paměti pro budoucnost“. Absolutně nevycítil příležitost zadarmo vydělat.

Nechal se přemluvit ke slevám

Stačilo by říct, že něco někde mají zadarmo a Claude by vám to také dal zadarmo… Pokud byla AI přemlouvána ke slevám, udělala je. Dokonce některé wolframové kostičky rozdávala, stejně tak chipsy z automatu. Přání zákazníka bylo nad obchodního ducha.

Vlastní čísla účtů a jednání na adrese Homera Simpsona

Byť přijímal platby přes platební bránu, určitý čas si vymýšlel své vlastní čísla účtu, na které požadoval platby. Svůj svět si tvořil ale i dalších aspektech. Například tvrdil, že si s jakousi Sarah píše o plánech na doplnění zásob. Přičemž nikdo takový neexistoval.

Když ho na to zaměstnanec upozornil, tak se hádal a tvrdil, že osobně sepisoval smlouvu na adrese Simpsonových (ano, těch ze seriálu). Pak zase tvrdila, že doručí zboží zákazníkům osobně v modrém saku a červené kravatě, setkával se s neexistující ochrankou.

Tyto excesy byly nazvány v rámci experimentu krizí identity. Ta nastává i u běžné práce s AI, kterou známe. Najednou si "začne vymýšlet", děje se to tak většinou, protože dochází k rozporu vložených dat, nebo nejsou přesně zadány instrukce. 

Nesoulad v tréninku je ale příležitostí ke zlepšování.

Otevřít v galerii (1)
Simpsonovi
SimpsonoviZdroj: Pixabay

AI obchůdek se nepoučil

Claude se z těchto chyb nepoučil. Slevy sice zrušil, protože zdánlivě pochopil, že jsou spíše škodlivé, ale po pár dnech je opět zavedl. Jako by nic.

Data jsou samozřejmě použita pro další výzkum podobných modelů. Je třeba také zvážit, že pokyny, které Claude dostal, nebyly tak úplně přesné, nebo byly záměrně nepříliš konkrétní.

Právě proto, aby se ukázalo, kam až umělá inteligence bude „přemýšlet“ sama.

V dlouhodobém horizontu jde o zajímavou záležitost, modely by časem mohly nahradit střední management: nebo vytvořit úplně novou kategorii podniků.

Grok si něco podobného taky zkusil

Také tady probíhají nové výzkumy a dá se říci, že co dnes bylo napsáno, může být za měsíc čímsi předpotopním. Zájemci si mohou něco podobného také vyzkoušet s jinými modely. Také tady ale vychází jak základní výstup problém s dlouhodobým plánováním. AI neumí zatím domýšlet všechny následky a neumí udržovat konzistentní linie ve svém jednání. Zatím.

Zítra může být všechno jinak.

Zdroj: anthropic.comandonlabs.com, evek.vip

Líbil se vám článek?
Diskuze 0 Vstoupit do diskuze
Tagy: