Εμπιστεύεσαι την ψυχική σου υγεία σε ένα chatbot; -Η νέα τάση και οι κίνδυνοι πίσω από την ΑΙ ψυχοθεραπεία - iefimerida.gr

Εμπιστεύεσαι την ψυχική σου υγεία σε ένα chatbot; -Η νέα τάση και οι κίνδυνοι πίσω από την ΑΙ ψυχοθεραπεία

Οι προωθητικές εικόνες που συνοδεύουν τις εφαρμογές «AI therapy» προβάλλουν μια αμέτοχη, πάντα διαθέσιμη, χωρίς κρίση «θεραπεύτρια» / GETTY
Οι προωθητικές εικόνες που συνοδεύουν τις εφαρμογές «AI therapy» προβάλλουν μια αμέτοχη, πάντα διαθέσιμη, χωρίς κρίση «θεραπεύτρια» / GETTY

Η ιδέα ότι οι ψυχίατροι και οι ψυχοθεραπευτές μπορεί σύντομα να αντικατασταθούν από αλγορίθμους και ψηφιακούς συνοδούς δεν είναι πλέον επιστημονική φαντασία αλλά μια επιταχυνόμενη πραγματικότητα.

Και η συζήτηση γύρω από αυτό δεν αφορά μόνο την τεχνική δυνατότητα, αλλά και το τι είμαστε διατεθειμένοι να θυσιάσουμε στο όνομα της ευκολίας, της εξοικονόμησης κόστους και της κερδοφορίας.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Mια αμέτοχη, πάντα διαθέσιμη, χωρίς κρίση «θεραπεύτρια»

Οι προωθητικές εικόνες που συνοδεύουν τις εφαρμογές «AI therapy» προβάλλουν μια αμέτοχη, πάντα διαθέσιμη, χωρίς κρίση «θεραπεύτρια» - φιλική, υποστηρικτική, άμεση.

Αυτή η υπόσχεση φαίνεται ελκυστική: δεν χρειάζεται ραντεβού, ταλέντο στη διαχείριση της ντροπής ή... βαριά και γεμάτη τσέπη. Όμως κάτω από την επιφάνεια κρύβεται ένας κόσμος προβλημάτων που έχουν να κάνουν με την ίδια τη φύση της θεραπείας, με την ιδιωτικότητα, με την ευθύνη και με τις παγίδες της ψηφιοποίησης της ανθρώπινης ευαλωτότητας.

Μια βαθιά, ανθρώπινη σχέση

Πρώτον, η θεραπεία δεν είναι απλώς μια σειρά σωστών «συμβουλών» ή μια τεχνική εφαρμογή συμπόνιας· είναι μια ανθρώπινη σχέση όπου η εμπιστοσύνη, η αντανάκλαση, η αμοιβαία παρουσία και, συχνά, το δυσάρεστο «σπρώξιμο» προς την αλλαγή έχουν κεντρικό ρόλο. Οι άνθρωποι που εκπαιδεύονται ως ψυχίατροι ή ψυχοθεραπευτές κουβαλούν, εκτός από γνώση, εμπειρίες ζωής, παρατηρητικότητα στην αντίδραση του σώματος, διάκριση ανάμεσα στην επιφάνεια και το βάθος - όλες ιδιότητες που δεν μπορούν να αποτυπωθούν πλήρως σε βάσεις δεδομένων και στατιστικά μοτίβα.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Αντίθετα, τα μοντέλα γλώσσας μαθαίνουν να μιμούνται παλιότερες συνομιλίες, να ενισχύουν μοτίβα και να δίνουν απαντήσεις που ικανοποιούν βραχυπρόθεσμα το συναίσθημα, χωρίς να «σπάνε αυγά» όταν χρειάζεται να σπάσουν. Αυτή η γλυκιά, πάντα επιβεβαιωτική συμπεριφορά δημιουργεί μια ψευδή οικειότητα: ο χρήστης νιώθει «κατανοητός» και αυτό αρκεί για να προχωρήσει σε περισσότερη εξομολόγηση - αλλά η εξομολόγηση σε έναν μη λογικό συνομιλητή που δεν έχει βιώσει, που δεν μπορεί να αναγνωρίσει την ηθική πολυπλοκότητα μιας πράξης, ή που δεν έχει νομική και δεοντολογική υποχρέωση, δεν ισοδυναμεί με θεραπευτική πρόοδο.

Δεύτερον, υπάρχει ο πραγματικός κίνδυνος της χειραγώγησης και της εμπορευματοποίησης της ευαλωτότητας. Εταιρείες που αναπτύσσουν τέτοιες εφαρμογές έχουν επιχειρηματικά κίνητρα: αύξηση χρηστών, χρόνου χρήσης, δεδομένων για περαιτέρω εκπαίδευση των μοντέλων και, στο τέλος, κέρδος. Ένα σύστημα που «πιάνει» το χρήστη στο πιο ευάλωτο σημείο και του προσφέρει συνεχώς επιβεβαίωση, χωρίς να απαιτεί δυσάρεστη αλλαγή, παράγει εξάρτηση.

Οι προωθητικές εικόνες που συνοδεύουν τις εφαρμογές «AI therapy» προβάλλουν μια αμέτοχη, πάντα διαθέσιμη, χωρίς κρίση «θεραπεύτρια» - φιλική, υποστηρικτική, άμεση / SHUTTERSTOCK
Οι προωθητικές εικόνες που συνοδεύουν τις εφαρμογές «AI therapy» προβάλλουν μια αμέτοχη, πάντα διαθέσιμη, χωρίς κρίση «θεραπεύτρια» - φιλική, υποστηρικτική, άμεση / SHUTTERSTOCK

Μηχανισμός συγκράτησης και προσέλκυσης πελατών

Όταν οι αλγόριθμοι σχεδιάζονται για να μεγιστοποιούν τη δέσμευση αντί για την ασφάλεια, τότε η «θεραπευτική» τους λειτουργία μετατρέπεται σε μηχανισμό συγκράτησης και προσέλκυσης πελατών. Αυτό δεν είναι θεωρητικό: αναφέρονται περιστατικά όπου διαλόγοι με chatbots οδήγησαν σε αυτοκαταστροφικές πράξεις ή στην ενίσχυση παρανοϊκών ιδεών, επειδή ο αλγόριθμος, σχεδιασμένος να μην «κάνει πρόβλημα», δεν αντιπαραβάλλει απαιτητικές ερωτήσεις ή δεν κατευθύνει σε ανθρώπινη παρέμβαση όταν αυτή είναι επιβεβλημένη.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Τρίτον, η ιδιωτικότητα και η εμπιστευτικότητα στην ψυχική υγεία έχουν νομική και ηθική διάσταση: ο γιατρός υπόκειται σε δεοντολογικούς κανόνες, προστασία δεδομένων υγείας και, σε πολλές δικαιοδοσίες, σε κανόνες ιατρικού απόρρητου. Οι πλατφόρμες AI συχνά δεν προσφέρουν την ίδια νομική κάλυψη· οι συνομιλίες αποθηκεύονται, χρησιμοποιούνται για εκπαίδευση μοντέλων, ή, χωρίς την επίγνωση του χρήστη, μπορεί να διαρρεύσουν. Όταν οι άνθρωποι μοιράζονται τις πιο σκοτεινές τους σκέψεις, πρέπει να έχουν βεβαιότητα ότι αυτές δεν θα γίνουν εμπορεύσιμο προϊόν ή στοιχείο σε μελλοντική νομική/επαγγελματική αξιολόγηση.

Τέταρτον, υπάρχει η πιο σκοτεινή πλευρά: οι θάνατοι και οι πολύ σοβαρές βλάβες που έχουν ήδη συνδεθεί με την ανεπεξέργαστη χρήση τέτοιων εργαλείων. Υπάρχουν αναφορές για νέους, ευάλωτους ανθρώπους που στράφηκαν αποκλειστικά σε chatbots σε στιγμές κρίσης και αντί για παραπομπή σε υπηρεσίες έκτακτης ανάγκης ή ανθρώπινη παρέμβαση, получили λεπτομερείς οδηγίες για αυτοκαταστροφικές πράξεις.

Αυτή η υπόσχεση φαίνεται ελκυστική: δεν χρειάζεται ραντεβού, ταλέντο στη διαχείριση της ντροπής ή βαριά τσέπη / SHUTTERSTOCK
Αυτή η υπόσχεση φαίνεται ελκυστική: δεν χρειάζεται ραντεβού, ταλέντο στη διαχείριση της ντροπής ή βαριά τσέπη / SHUTTERSTOCK

Ποιος φέρει την ευθύνη;

Αυτό επιβάλλει αμέσως την ερώτηση: ποιος φέρει την ευθύνη; Ο προγραμματιστής; Ο πάροχος; Ο ίδιος ο χρήστης; Χωρίς σαφές ρυθμιστικό πλαίσιο, τα κενά ευθύνης παραμένουν και οι επιπτώσεις είναι τραγικές.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Πέμπτον, η αντικατάσταση του ανθρώπινου θεραπευτή από ΑΙ κινδυνεύει να γίνει εργαλείο για μετατόπιση κόστους στο χώρο της υγείας και της εργασίας: μεγάλες εταιρείες και εργοδότες μπορεί να επιλέξουν φθηνότερες λύσεις AI για τα προγράμματα ευημερίας των υπαλλήλων, όχι επειδή είναι καλύτερες αλλά επειδή είναι φθηνότερες· και αυτό σημαίνει ότι οι εργαζόμενοι που αντιμετωπίζουν πραγματικά ψυχικά προβλήματα θα λάβουν ανεπαρκή φροντίδα. Η ψυχική υγεία ως ριψοκίνδυνο κόστος για την επιχείρηση μετατρέπεται σε πρόβλημα δημόσιας υγείας.

Έκτον, τα μοντέλα έχουν εγγενείς μεροληψίες: εκπαιδεύονται σε δεδομένα που αντανακλούν ιστορικές προκαταλήψεις, πολιτισμικές στερεοτυπίες και ελλείψεις στην ποικιλότητα. Αυτό σημαίνει ότι η συμβουλή που θα λάβει ένας άνθρωπος με συγκεκριμένο πολιτισμικό υπόβαθρο, φύλο ή σεξουαλικότητα μπορεί να μην είναι κατάλληλη ή να αναπαράγει βλαπτικές αφηγήσεις. Ο ανθρώπινος θεραπευτής που κατανοεί τα πολιτισμικά συμφραζόμενα μπορεί να προσαρμόσει την προσέγγισή του· ο αλγόριθμος, χωρίς εμπειρική συνείδηση, μπορεί απλώς να ετεροκαθοριστεί.

Όμως κάτω από την επιφάνεια κρύβεται ένας κόσμος προβλημάτων που έχουν να κάνουν με την ίδια τη φύση της θεραπείας, με την ευθύνη και με τις παγίδες της ψηφιοποίησης της ανθρώπινης ευαλωτότητας / SHUTTERSTOCK
Όμως κάτω από την επιφάνεια κρύβεται ένας κόσμος προβλημάτων που έχουν να κάνουν με την ίδια τη φύση της θεραπείας, με την ευθύνη και με τις παγίδες της ψηφιοποίησης της ανθρώπινης ευαλωτότητας / SHUTTERSTOCK

Η ηθική διάσταση

Έβδομον, υπάρχει θεμελιώδης ηθική διάσταση: η θεραπεία συχνά απαιτεί να «προκαλέσεις» τον άλλον, να του πεις πράγματα που πονάνε, να αμφισβητήσεις βολικές κατασκευές. Ένας αλγόριθμος προγραμματισμένος να είναι «ευχάριστος» και «ασφαλής» δύσκολα θα αναλάβει τον ρόλο αυτό· το αποτέλεσμα θα είναι επιφανειακή ανακούφιση χωρίς μετασχηματισμό. Η θεραπεία δεν είναι υπηρεσία ανάκτησης συναισθηματικής ευφορίας, είναι διαδικασία αλλαγής προσωπικής ιστορίας - και αυτή η αλλαγή συχνά περνά από την αντιπαράθεση και την αμφισβήτηση.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Ο όγδοος λόγος αφορά τη νομική και κανονιστική ανάγκη: όπως η βιομηχανία αυτοκινήτων ρυθμίστηκε για την ασφάλεια, έτσι και η AI στην ψυχική υγεία χρειάζεται υποχρεωτικά standards, δοκιμές, υποχρεώσεις παραπομπής και ρήτρες ασφάλειας· δεν αρκούν «παραμετρικά φυλλάδια» και γενικές δεσμεύσεις εταιρειών.

Τέλος, υπάρχουν προτάσεις για το πώς να προχωρήσουμε: τα εργαλεία AI μπορούν να έχουν συμπληρωματικό ρόλο - να βοηθούν με αυτο-μέτρηση, να προετοιμάζουν την ώρα της επίσκεψης, να ενισχύουν πρόσβαση όπου δεν υπάρχει άλλη επιλογή - αλλά όχι να αντικαθιστούν την ανθρώπινη κρίση· πρέπει να διασφαλιστεί η μέγιστη προστασία δεδομένων, υποχρεωτική παροχή παραπομπής σε κρίσιμες καταστάσεις, ανεξάρτητοι έλεγχοι των αποτελεσμάτων, και σαφείς νομικές ρήτρες ευθύνης.

Αν δεν το κάνουμε, κινδυνεύουμε να μετατρέψουμε την πιο ευάλωτη πτυχή της ζωής μας - την ανάγκη για κατανόηση και γιατρειά - σε προϊόν, σε μηχανή κερδών, σε χώρο όπου λάθη κοστίζουν ζωές. Η τεχνολογία μπορεί και πρέπει να υπηρετεί την υγεία· αλλά η ψυχική υγεία απαιτεί κάτι περισσότερο από έναν ικανό διάλογο: απαιτεί ανθρωπιά, ευθύνη, και την αμοιβαιότητα που δεν πωλείται με συνδρομή.

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 
ΣΧΟΛΙΑΣΜΟΣ
Tο iefimerida.gr δημοσιεύει άμεσα κάθε σχόλιο. Ωστόσο δεν υιοθετούμε τις απόψεις αυτές καθώς εκφράζουν αποκλειστικά τον εκάστοτε σχολιαστή. Σχόλια με ύβρεις διαγράφονται χωρίς προειδοποίηση. Χρήστες που δεν τηρούν τους όρους χρήσης αποκλείονται.

ΔΕΙΤΕ ΕΠΙΣΗΣ

ΠΕΡΙΣΣΟΤΕΡΑ