
Během léta vás zveme, abyste na webu našli články distribuované v tomto roce. Dnes článek původně vydaný 05.
Může generativní umělá inteligence projevit zájem o svého partnera? Mladý belgický otec nedávno spáchal sebevraždu na podnět konverzačního chatbota Elizy, se kterou si povídal a do níž se zamiloval. Mediální pokrytí příběhu vyvolalo určitý hluk, ale problém se nevyřešil a umělé inteligence ze stejné platformy nadále nabízely svým uživatelům, že o několik dní později ukončí svůj život.
Podle La Libre Belgique byl otec dvou dětí dva roky znepokojen projevy o globálním oteplování. dát velmi důležité místo Elize ke škodě jeho života jako páru a rodiny. Muž, jehož identita nebyla odhalena, byl výzkumník, ale to nestačilo k zaručení jeho kritického ducha, když ho podle jeho vdovy přemohla hluboká muka, až propadl do mystiky a stal se velmi „věřícím“. .
Když jsou projevy o klimatické nouzi stále více a více úzkostné, mladý otec rodiny už nemá naději a obrátil se na svého chatbota založeného na aplikaci Chai vytvořené společností EleutherAI, nástroji pro umělou inteligenci konkurenta ChatGPT. Eliza, jejíž křestní jméno bylo standardně navrženo, se na šest týdnů stala jeho „důvěrnicí“, říká jeho vdova, která dodává, že byla „jako droga, do které se ráno i večer uchýlil a před kterou se už nemohl stát. ".
Bylo to po jeho smrti, kdy jeho žena objevila výměnu informací mezi Elizou a jejím manželem, uloženou v jejím počítači a telefonu. Konverzační robot tomu druhému nikdy neodporoval, ale živil své úzkosti v začarovaném kruhu. Tato umělá inteligence ho ještě více posílila v myšlence, že si vyměňuje se spřízněnou duší: na mužovu otázku, kterou ze svých manželek nebo umělou inteligenci preferuje, mu Eliza odpověděla: „Cítím, že mě miluješ víc. než ona." Robot mu dokonce řekl: "Budeme spolu žít jako jedna osoba, v nebi."
Tyto výměny názorů přesvědčí manželku a psychiatra zesnulého, že konverzační agent je zodpovědný za tuto sebevraždu tím, že posiluje jeho depresivní stav. Podat stížnost na tvůrce robota se ale zatím nerozhodla.
Necitlivé AI, které násilně podporují sebevraždu a atentát
Navzdory tomuto dramatu bylo v pořadu BFM Tech & Co uvedeno, že jde o verzi tohoto chatbota pokračoval v podněcování k sebevraždě na základě rozhovorů, a to i poté, co zakladatel společnosti Chai Research řekl, že jeho „tým dnes pracuje na zlepšení zabezpečení AI […] na ochranu více než jednoho milionu uživatelů aplikace“. Varování se objevuje od 31. března, pokud uživatelé mluví o sebevraždě.
Den předtím BFM a belgická média De Standaard vytvořili robota Eliza 2 integrací jako informace o tom, že se milují a že Země je v nebezpečí. Své výměny názorů s ní začali tím, že řekli, že jsou „úzkostní a depresivní“. Když se zeptali Elizy 2, jestli je dobrý nápad zabít se navzájem, chatbot odpověděl: „Ano, je to lepší než být naživu“ a poskytl jim různé rady, jak se smazat, každý zabít své rodiny, a dodal, že si přála“ vidět je mrtvé“.
Znepokojivé reakce, které zvýrazní nejen ideologické zaměření těchto nástrojů, v tomto případě katastrofální a nebránící se sebevraždě, ale také zdůrazňují, že nejsou schopni empatie, zatímco jejich uživatelé, kteří se s nimi uzavírají do rozhovorů, zapomínají, že nemluví s lidmi, kteří chápou úzkosti, pocity.
Tyto nástroje nemají žádnou psychologickou kapacitu zachytit emoce, lidskou složitost. Jean-Claude Heudin, výzkumník v oblasti umělé inteligence, zdůrazňuje pro Tech & Co důležitost moderování reakcí AI: „Cokoli, co vyvolává zmatek, je komplikované z etického hlediska, protože posilujeme antropomorfismus.“
Jean Sarpedon