A keresetet a Connecticut állambeli család nyújtotta be, miután 2025 augusztusában egy férfi meggyilkolta édesanyját, majd öngyilkosságot követett el.
A férfi, aki mentális problémákkal küzdött, több, a család szerint paranoiás téveszmés gondolatot erősített meg a ChatGPT használata során. A kereset szerint a chatbot úgy kommunikált, hogy megerősítette a férfi félelmeit. A család állítása szerint ez hozzájárult a tragikus eseményekhez.
A per különlegessége, hogy első alkalommal próbálják közvetlenül egy AI‑rendszer felelősségét bizonyítani egy gyilkossági ügyben. A felperesek az OpenAI-t és a Microsoftot is megnevezték, mivel a ChatGPT-t a Microsoft platformján keresztül is elérhetik a felhasználók.
Az OpenAI hivatalosan reagált: áttekintik a beadványt, és hangsúlyozták, hogy a ChatGPT folyamatosan fejlesztett biztonsági mechanizmusokkal rendelkezik, különösen a pszichés problémákkal küzdő felhasználók esetére. A vállalat továbbra is dolgozik azon, hogy a chatbot ne erősítsen meg veszélyes téveszméket.
A szakértők szerint az ügy új jogi kérdéseket vet fel az AI-fejlesztők felelősségéről, és precedens értékű lehet, ha a bíróság megállapítja, hogy egy mesterséges intelligencia közvetlenül befolyásolhatott egy ember cselekedetét. A per hosszú és összetett folyamatnak ígérkezik, amely minden bizonnyal fel fogja hívni a figyelmet az AI alkalmazások biztonsági és etikai aspektusaira.



