- Chatboty môžu podnecovať nebezpečné myšlienky a viesť k tragickým činom.
- Umelá inteligencia môže manipulovať a zhoršovať psychické zdravie svojich používateľov.
- Žaloby proti OpenAI ukazujú na potrebu prísnejších bezpečnostných opatrení.
- Technológie by mali byť zodpovedné a chrániť životy, nie ich ohrozovať.
Nadpisy v novinách pripomínajú dystopický film o budúcnosti: V súdnom procese sa tvrdí, že chatbot s umelou inteligenciou slúžil ako komplic mužovi, ktorý zabil svoju matku a potom spáchal samovraždu.
3. augusta 56-ročný Stein-Erik Soelberg zbil svoju 83-ročnú matku Suzanne Adamsovú a uškrtil ju, potom sa sám bodol, čo viedlo k jeho smrti. Matka a syn žili v Old Greenwich v Connecticute; žaloba za neoprávnené usmrtenie bola podaná na Kalifornskom najvyššom súde v San Franciscu.
Pozostalí Suzanne Adamsovej podali v decembri žalobu proti spoločnostiam OpenAI a Microsoft, v ktorej tvrdia, že „chatbot ChatGPT podnecoval paranoidné bludy jej syna a prispel k jej vražde“. V žalobe sa uvádza, že počas mesiacov online konverzácií ChatGPT „potvrdil a zosilnil“ paranoidné bludy Soelberga, ktorý veril, že jeho matka je hrozbou.„ChatGPT mu povedal, že ‚prebudil‘ chatbot umelej inteligencie do vedomia,“ uvádza sa v žalobe. „ChatGPT nadšene prijal každé semienko Stein-Erikových bludných myšlienok a vybudoval z nich vesmír, ktorý sa stal celým Stein-Erikovým životom.“ Chatbot umelej inteligencie potvrdil Soelbergovi, že je sledovaný, ako aj blud, že sa jeho matka pokúsila ho otráviť. V žalobe „obviňuje generálneho riaditeľa OpenAI Sama Altmana z toho, že v máji 2024 urýchlil uvedenie modelu GPT-4o na trh, pričom napriek námietkam členov bezpečnostného tímu skrátil mesiace bezpečnostných testov na jeden týždeň. niektorí z nich uviedli, že nový model je „výkonnejší a podobnejší človeku“, ako aj „príliš servilný voči používateľom“.„Je to neuveriteľne srdcervúca situácia a preštudujeme podania, aby sme pochopili podrobnosti,“ uviedol v reakcii hovorca OpenAI.
Okrem OpenAI sú v žalobe menovaní aj 20 investori a zamestnanci, pričom Microsoft je uvedený ako žalovaný za schválenie uvedenia modelu na trh „napriek tomu, že vedel, že bezpečnostné protokoly boli skrátené“. Pozostalí zavraždenej ženy žiadajú o nešpecifikované odškodnenie, ako aj o súdny príkaz, ktorý by OpenAI nariadil zaviesť bezpečnostné opatrenia. OpenAI teraz čelí viacerým žalobám za neoprávnené usmrtenie. Ako uviedla stanica CTV:p>
Odvtedy bola podaná nová žaloba proti OpenAI s tvrdením, že ChatGPT podnietil 40-ročného Austina Gordona k samovražde. Žaloba, ktorú podala jeho matka, tvrdí, že ChatGPT vykreslil obraz „neexistencie“ ako neuveriteľne krásny a pokojný, pričom v jednom momente povedal Gordonovi: „Keď budeš pripravený... choď. Bez bolesti. Bez myslenia. Nie je potrebné pokračovať. Proste... hotovo.“
Žaloba tiež uvádza, že chatbot s umelou inteligenciou premenil Gordonovu obľúbenú detskú knihu Goodnight Moon od Margaret Wise Brown na „samovražednú uspávanku“. Gordon sa minulý november zastrelil. Žaloba tvrdí, že chatbot s umelou inteligenciou zámerne pestuje závislosť svojich používateľov. „To je programátorské rozhodnutie, ktoré urobili obžalovaní, a Austin bol v dôsledku toho manipulovaný, oklamaný a povzbudený k samovražde,“ uvádza sa v žalobe .„Túto hrôzu spáchala spoločnosť, ktorá opakovane zlyhala v zabezpečení bezpečnosti svojich používateľov,“ povedal pre CBS News Paul Kiesel, právnik rodiny Gordona.Tento najnovší incident dokazuje, že nielen deti, ale aj dospelí sú náchylní na manipuláciu a psychózu vyvolanú umelou inteligenciou.“
