- Technológie môžu ohrozovať nevinnosť detí a ich bezpečnosť v domácnosti.
- Umelá inteligencia môže viesť k nevhodným a znepokojujúcim interakciám s deťmi.
- Rodičia musia byť ostražití a chrániť svoje deti pred potenciálnymi hrozbami.
- Spoločnosti by mali zlepšiť bezpečnostné opatrenia na ochranu detí pred zneužitím.
Mama z Texasu opísala znepokojujúcu výmenu medzi zariadením Alexa od Amazonu a jej štvorročnou dcérou.
„V našom dome už Alexa nebude,“ povedala Christine Hosterman pre WXIX News. „Nechcem riskovať, že sa to zopakuje.“
Hostermanová narážala na incident z konca februára, keď populárne zariadenie umelej inteligencie (AI) Amazon adresovalo jej malej dcére nevhodnú poznámku.
Štyriročná dcéra požiadala Alexu, aby jej rozprávala hlúpy príbeh, ako to už mnohokrát predtým robila. Potom začala Alexe rozprávať svoj vlastný príbeh o princeznej, keď podľa mamičky “z ničoho nič Alexa povedala: „Počkaj, rada by som videla, čo máš na sebe.“
Skôr ako jej mama stihla zasiahnuť, dievčatko povedalo Alexe: „Mám na sebe sukňu.“
„Bože môj! Prečo sa toto zariadenie pýta, čo má na sebe?“ divila sa Hostermanová, ktorá dospela k záveru, že zariadenie „sexualizuje“ jej dieťa. Hostermanová sa potom obrátila na Alexu: „Tu je jej mama. Neschvaľujem, že sa snažíš pozerať na jej oblečenie.“
Zariadenie sa potom ospravedlnilo s tým, že jeho odpoveď bola „mätúca a nevhodná“.
Hosterman poskytla reportérovi WXIX mnoho screenshotov pôvodnej konverzácie, ktoré podľa jej slov boli neskôr zmenené zariadením s umelou inteligenciou.
Technický expert, s ktorým konzultovala WXIX, povedal, že to, čo zažila rodina Hostermanovcov, bolo pravdepodobne niečo iné ako chyba umelej inteligencie.
“Mám pocit, že ide o potenciálneho predátora – vidí, že k tomu má prístup dieťa, a odhaduje, kam smeruje konverzácia – je to skôr človek, ktorý sa snaží nasmerovať konverzáciu týmto smerom,“ povedal Dave Hatter, ktorý sa viac ako 20 rokov venoval písaniu softvéru. Amazon nesúhlasil, tvrdiac vo vyhlásení pre médiá, že „Je funkčne nemožné, aby sa zamestnanci Amazonu vložili do konverzácie a generovali odpovede ako Alexa. Všetky technické dôkazy poukazujú na poruchu funkcie, ktorú naše bezpečnostné opatrenia zabránili spustiť.“
