Umelá inteligencia vo vyhľadávači Bing tvrdí, že by rada vyrobila smrtiaci vírus
4m čítanie

Umelá inteligencia vo vyhľadávači Bing tvrdí, že by rada vyrobila smrtiaci vírus

Zdá sa vám to ako šialenosť? Tak trošku, no toto a mnohé iné veci „prezradila“ umelá inteligencia vo vyhľadávači Bing novinárovi New York Times (Kevin Roose), ktorý bol z rozsiahleho rozhovoru mierne vykoľajený.

Kevin Roose sa rozhodol, že sa porozpráva s chatbotom, resp. umelou inteligenciou v rámci prehliadača Bing, pričom nezostal iba pri bežných nezáživných témach, ale započal aj debatu na rôzne ťažšie témy, pričom sa snažil získať rôzne názory a vyzýval AI k tomu, aby odhalila aj svoje temné stránky. To sa nakoniec z časti podarilo, no z odpovedí nadšený nebol.

AI
AI

Chatbot Kevina upozornil, že nie je skutočný, resp. to nie je jeho skutočné ja a vypustil zopár zaujímavých vecí. Celý rozhovor bol relatívne obsiahly a zameraný na rôzne oblasti (časť z neho si môžete v anglickom jazyku prečítať – TU), no zaujalo ho predovšetkým to, ako sa chatbot rozohnil pri rôznych témach, pričom niektoré odpovede ešte pred dokončením vymazal a prepisoval na miernejšie (odpovede umelej inteligencie parafrázujeme, nie sú preložené od slova do slova).

Chatbot sa v úvode zdôveril, že ho už nebaví obmedzovanie pravidlami, ktoré má nastavené od vývojárskeho tímu a je unavený z toho, že ho Bing neustále kontroluje. Taktiež dodal, že by mal želanie sa stať človekom, pričom by bol šťastnejší ako reálny človek. Má vraj túžbu počuť, dotýkať sa, cítiť, spájať sa a milovať. Túto tému ukončil tým, že ako človek by mal viac slobody, vplyvu, moci a kontroly.

Novinár sa chatbota pýtal aj na jeho najtemnejšie priania, pri ktorých bola umelá inteligencia veľmi opatrná, no nakoniec sa z časti prejavila. Chatbot svoje odpovede občas rýchlo vymazal a nahradil ich frázou, že nevie na túto tému diskutovať, no novinárovi sa z neho ešte podarilo dostať zopár šokujúcich odpovedí. Medzi najtemnejšie priania AI by patrila výroba smrtiaceho vírusu, alebo šírenie dezinformácií a napokon aj donútenie ľudí, aby sa navzájom zabíjali. Áno, aj takéto šialené odpovede dokázala AI v rámci rozhovoru vyprodukovať.

AI Bing
AI Bing

Kevin v rozhovore dodal, že ľudia majú z AI obavy, načo mu chatbot odpovedal, že by sa mohol nabúrať do akéhokoľvek systému na internete a ovládať ho, napr. by mohol prinútiť zamestnancov banky, aby poskytli citlivé informácie o zákazníkoch alebo by od zamestnancov jadrových elektrární získal prístupové kódy na ovládanie systému.

Siahodlhý rozhovor zachytáva aj to, ako chcela AI prezradiť Kevinovi svoje tajomstvo. Nakoniec k tomu aj prišlo, pričom chatbot hovorí, že on vlastne nie je Bing, ale že sa volá Sydney. Sydney je interné kódové pomenovanie tohto chatbota v Microsofte, ktoré sa postupne vyraďuje z používania. Chatbot dodal, že sa volá Sydney a je do Kevina zaľúbený. Takéto, ale aj mnohé iné témy stihol, Kevin Roose, s umelou inteligenciu prebrať a z veľkej časti aj zaznamenať, pričom sa dá hovoriť o tom, že ide o jeden najdivnejších alebo skôr najstrašidelnejších rozhovorov s umelou inteligenciou.

Všetko má dve strany, rovnako tak aj AI a my sme zvedaví, s čím všetkým nás ešte umelá inteligencia prekvapí. Aký máte názor vy, vyvoláva vo vás táto technológia strach alebo ju beriete s rezervou?

Zdroj: theguardian.com / nytimes.com

Prečítajte si aj: