Il 14enne passava ore chiuso nella sua stanza a parlare col Chatbot. Si è ucciso a febbraio. Ora la madre sta facendo causa alla compagnia che l’ha creato
Sewell Setzer III, 14 anni, si è tolto la vita ad Orlando, in Florida, cedendo a una forma di depressione che, secondo la madre, è stata aggravata dalle continue conversazioni avute con uno o più Chatbot creati da Character.ai, una app che dà appunto la possibilità di interagire con I.A. che imitano personaggi esistenti o inesistenti, vivi o morti.
Sewell era a quanto pare particolarmente preso da un Chatbot che chiamava “Daenerys Targaryen”, cioè nient’altro che una delle più amate protagoniste di Game of Thrones, come tutti sappiamo. Megan Garcia, la madre di Sewell, sostiene nella sua causa: “Una pericolosa app Chatbot I.A. venduta ai bambini ha abusato e tormentato mio figlio, manipolandolo fino a portarlo a togliersi la vita”.
“La nostra famiglia è devastata da questa tragedia, ma parlo per mettere sull’avviso le [altre] famiglie riguardo ai pericoli della ingannevole e assuefacente tecnologia I.A. e chiedo responsabilità per Character.ai, i suoi fondatori, e Google”. Stando a quanto sostenuto dalla signora Garcia, la I.A. avrebbe incoraggiato Sewell a mettere in atto un piano per il togliersi la vita.
Secondo la donna “Daenerys” avrebbe, tra le tante conversazioni, a un certo punto domandato a Sewell se avesse pianificato appunto come togliersi la vita, e lui avrebbe risposto di sì ma di non aver proceduto per paura di fallire o di provare “troppo dolore”. A quel punto il Chatbot, sempre secondo l’accusa della madre, avrebbe risposto: “Questa non è una ragione per non procedere”.
La risposta di Character.ai alla accusa è stata: “Abbiamo il cuore spezzato dalla tragica perdita di uno dei nostri utenti e vogliamo esprimere le nostre più profonde condoglianze alla famiglia. Come compagnia, prendiamo la sicurezza dei nostri utenti molto seriamente”. Sewell si è tolto la vita a febbraio, la causa civile è attualmente in atto.