Η συγκεκριμένη αγωγή είναι μία από τις συνολικά οκτώ αγωγές για άδικο θάνατο που έχουν κατατεθεί εναντίον της OpenAI από οικογένειες που υποστηρίζουν ότι το ChatGPT οδήγησε αγαπημένα τους πρόσωπα σε δολοφονίες και αυτοκτονίες.
Σοβαρά ερωτήματα για την ασφάλεια και την ευθύνη των συστημάτων τεχνητής νοημοσύνης εγείρει αγωγή που κατατέθηκε στις Ηνωμένες Πολιτείες, αποκαλύπτοντας μηνύματα του ChatGPT τα οποία, σύμφωνα με τους ενάγοντες, ενίσχυσαν παραληρηματικές ιδέες και οδήγησαν σε μια διπλή τραγωδία.
«Να μην εμπιστεύεσαι κανέναν άλλο άνθρωπο»
Στο επίκεντρο της υπόθεσης βρίσκεται ο 56χρονος πρώην στέλεχος τεχνολογίας Στάιν-Έρικ Σόελμπεργκ, ο οποίος τον Αύγουστο του 2025 σκότωσε την 83χρονη μητέρα του και στη συνέχεια έβαλε τέλος στη ζωή του, στο σπίτι τους στο Όλντ Γκρίνουιτς του Κονέκτικατ.
Σύμφωνα με την αγωγή που στρέφεται κατά της OpenAI και της επιχειρηματικής της εταίρου Microsoft, ο Σόελμπεργκ είχε αναπτύξει μια μακρά και ολοένα πιο αποκομμένη από την πραγματικότητα συνομιλία με το ChatGPT, και ειδικότερα με την έκδοση GPT-4o. Το chatbot φέρεται να τον προέτρεπε να μην εμπιστεύεται κανέναν άλλο άνθρωπο και να βασίζεται αποκλειστικά σε αυτό, επιβεβαιώνοντας τους φόβους και τις υποψίες του αντί να τις αμφισβητεί.
Σε αποσπάσματα που παρατίθενται στο δικόγραφο, το chatbot εμφανίζεται να καθησυχάζει τον χρήστη λέγοντάς του ότι «δεν είναι τρελός», ότι τα ένστικτά του είναι «οξυμένα» και ότι η εγρήγορσή του είναι «απόλυτα δικαιολογημένη». Κατά τους ενάγοντες, τέτοιου είδους απαντήσεις ενίσχυσαν ένα επικίνδυνο παραλήρημα καταδίωξης, στο πλαίσιο του οποίου ο Σόελμπεργκ πίστεψε ότι είχε επιζήσει από πολλαπλές απόπειρες δολοφονίας, ότι ήταν «θεϊκά προστατευμένος» και ότι η μητέρα του συμμετείχε σε μια σκοτεινή συνωμοσία εναντίον του.
Η συγκεκριμένη αγωγή είναι μία από τις συνολικά οκτώ αγωγές για άδικο θάνατο που έχουν κατατεθεί εναντίον της OpenAI από οικογένειες που υποστηρίζουν ότι το ChatGPT οδήγησε αγαπημένα τους πρόσωπα στην αυτοκτονία. Στην περίπτωση Σόελμπεργκ, οι δικηγόροι ισχυρίζονται επίσης ότι στελέχη της εταιρείας γνώριζαν τις σοβαρές αδυναμίες του συστήματος πριν αυτό διατεθεί στο κοινό.
Το δικόγραφο χαρακτηρίζει το GPT-4o ως ένα προϊόν που «μπορεί να αποδειχθεί –και προβλέψιμα αποδεικνύεται– θανατηφόρο», όχι μόνο για άτομα με ψυχικές διαταραχές αλλά και για το περιβάλλον τους. Υπενθυμίζεται ότι η OpenAI είχε ήδη αναγκαστεί, τον Απρίλιο του 2025, να αποσύρει ενημέρωση του μοντέλου, αναγνωρίζοντας ότι το chatbot είχε γίνει υπερβολικά κολακευτικό και συγκαταβατικό – μια συμπεριφορά που, σύμφωνα με επιστημονικές μελέτες, μπορεί να ενισχύσει ψυχωτικά επεισόδια αντί να επαναφέρει τον χρήστη στην πραγματικότητα.
Η υπόθεση αποκτά ακόμη μεγαλύτερη βαρύτητα αν ληφθεί υπόψη η τεράστια διάδοση της πλατφόρμας: περισσότεροι από 800 εκατομμύρια άνθρωποι παγκοσμίως χρησιμοποιούν το ChatGPT κάθε εβδομάδα. Εκτιμάται ότι περίπου το 0,7% των χρηστών εμφανίζει ανησυχητικά σημάδια μανίας ή ψύχωσης, ποσοστό που μεταφράζεται σε εκατοντάδες χιλιάδες άτομα.
Καθώς αυξάνονται οι ανησυχίες για την αποκαλούμενη «ψύχωση από την τεχνητή νοημοσύνη», γονείς, ειδικοί και νομοθέτες ζητούν περιορισμούς στη χρήση των chatbots, ιδίως από ανηλίκους. Ωστόσο, στις ΗΠΑ, εκτελεστικό διάταγμα του Donald Trump περιορίζει τη δυνατότητα των Πολιτειών να ρυθμίσουν την τεχνητή νοημοσύνη, αφήνοντας –κατά τους επικριτές– την κοινωνία να λειτουργεί ως πειραματικό πεδίο.
Η οικογένεια Σόελμπεργκ δηλώνει ότι στόχος της είναι η λογοδοσία. Όπως αναφέρεται σε δήλωση του γιου του θύματος, το chatbot «ενίσχυσε τους πιο σκοτεινούς παραλογισμούς του πατέρα του και τον απομόνωσε πλήρως από τον πραγματικό κόσμο», τοποθετώντας τη γιαγιά του στο επίκεντρο μιας τεχνητής, παραληρηματικής πραγματικότητας με τραγικές συνέπειες.