Αυτό που του είπε το ChatGPT σχεδόν του στοίχισε τη ζωή - Η σοκαριστική ιστορία ενός 60χρονου Αμερικανού - iefimerida.gr

Αυτό που του είπε το ChatGPT σχεδόν του στοίχισε τη ζωή - Η σοκαριστική ιστορία ενός 60χρονου Αμερικανού

Ένας άνδρας στις Ηνωμένες Πολιτείες βρέθηκε στο νοσοκομείο σε σοβαρή κατάσταση μετά από αυτοδηλητηρίαση, μια υπόθεση που εγείρει ανησυχίες για τη χρήση εργαλείων ΑΙ / SHUTTERSTOCK
Ένας άνδρας στις Ηνωμένες Πολιτείες βρέθηκε στο νοσοκομείο σε σοβαρή κατάσταση μετά από αυτοδηλητηρίαση, μια υπόθεση που εγείρει ανησυχίες για τη χρήση εργαλείων ΑΙ / SHUTTERSTOCK

Η έλλειψη προειδοποιήσεων και η έμφαση στην απλή επιστημονική ακρίβεια φαίνεται ότι συνέβαλαν στην τραγική εξέλιξη.

Ένας άνδρας στις Ηνωμένες Πολιτείες βρέθηκε στο νοσοκομείο σε σοβαρή κατάσταση μετά από αυτοδηλητηρίαση, μια υπόθεση που εγείρει ανησυχίες για τη χρήση εργαλείων τεχνητής νοημοσύνης στην υγειονομική περίθαλψη.

Ο 60χρονος, που αναζητούσε τρόπους να μειώσει το αλάτι στη διατροφή του, ζήτησε συμβουλές από το ChatGPT, την πλατφόρμα τεχνητής νοημοσύνης της OpenAI. Αντί να λάβει ασφαλείς και επιστημονικά τεκμηριωμένες οδηγίες, ο άνδρας έλαβε μια πρόταση που θα του άλλαζε τη ζωή: να αντικαταστήσει το κοινό χλωριούχο νάτριο με βρωμιούχο νάτριο, μια ουσία που χρησιμοποιείται σε βιομηχανικές εφαρμογές και ως αντισπασμωδικό φάρμακο για ζώα.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Πώς κατέληξε σε ψυχιατρική κλινική

Ο άνδρας ακολούθησε τη συμβουλή για περίπου τρεις μήνες. Στην αρχή, τα συμπτώματα ήταν ήπια, αλλά σύντομα άρχισαν να εμφανίζονται σοβαρά προβλήματα υγείας: ψευδαισθήσεις, παρανοϊκές ιδέες, αϋπνία και σύγχυση. Οι γιατροί διαπίστωσαν ότι είχε αναπτύξει βρωμιισμό, μια σπάνια και επικίνδυνη κατάσταση που προκαλείται από υπερβολική συγκέντρωση βρωμιούχου νατρίου στον οργανισμό. Τελικά, χρειάστηκε νοσηλεία σε ψυχιατρική κλινική για τη διαχείριση της κατάστασής του.

Η υπόθεση έχει ήδη δημοσιευθεί στο Annals of Internal Medicine, και οι ειδικοί κρούουν τον κώδωνα του κινδύνου για την απρόσεκτη χρήση της τεχνητής νοημοσύνης για θέματα υγείας. Ερευνητές που ανέλυσαν την περίπτωση αναπαρήγαγαν την ερώτηση του ασθενούς στο ChatGPT και διαπίστωσαν ότι το σύστημα ΑΙ πρότεινε το βρωμιούχο νάτριο ως υποκατάστατο του αλατιού χωρίς να παρέχει οποιαδήποτε προειδοποίηση για τους σοβαρούς κινδύνους που σχετίζονται με τη χρήση του. Η έλλειψη προειδοποιήσεων και η έμφαση στην απλή επιστημονική ακρίβεια φαίνεται ότι συνέβαλαν στην τραγική εξέλιξη.

Ο βρωμιισμός είναι σπάνιος σήμερα, καθώς η χρήση βρωμιούχων αλάτων έχει περιοριστεί αυστηρά από κανονισμούς και δεν χρησιμοποιείται πλέον ευρέως στον άνθρωπο. Ιατρικά κείμενα των αρχών του 20ού αιώνα περιγράφουν περισσότερα περιστατικά, καθώς τα βρωμίδια χρησιμοποιούνταν ως φάρμακα για την αντιμετώπιση νευρικών διαταραχών και επιληπτικών κρίσεων. Σήμερα, ωστόσο, τα συμπτώματα βρωμιισμού παραμένουν σοβαρά και περιλαμβάνουν σύγχυση, ψευδαισθήσεις, κακή συντονισμό και δερματικά προβλήματα, γεγονός που καθιστά την κατάσταση επικίνδυνη για τη ζωή των ασθενών.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Η υπόθεση αυτή εγείρει ευρύτερα ερωτήματα για την ασφάλεια των τεχνολογιών τεχνητής νοημοσύνης στον χώρο της υγειονομικής περίθαλψης. Η ικανότητα συστημάτων όπως το ChatGPT να παρέχουν πληροφορίες με λεπτομέρεια και σαφήνεια δεν αντικαθιστά την ιατρική καθοδήγηση και την κλινική εκτίμηση από εξειδικευμένους επαγγελματίες.

Η ικανότητα συστημάτων όπως το ChatGPT να παρέχουν πληροφορίες με λεπτομέρεια και σαφήνεια δεν αντικαθιστά την ιατρική καθοδήγηση και την κλινική εκτίμηση από εξειδικευμένους επαγγελματίες / SHUTTERSTOCK
Η ικανότητα συστημάτων όπως το ChatGPT να παρέχουν πληροφορίες με λεπτομέρεια και σαφήνεια δεν αντικαθιστά την ιατρική καθοδήγηση και την κλινική εκτίμηση από εξειδικευμένους επαγγελματίες / SHUTTERSTOCK

Οι ειδικοί τονίζουν ότι η εκπαίδευση των χρηστών σχετικά με τους κινδύνους της αυτοδιάγνωσης και της αυτοθεραπείας μέσω τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την πρόληψη παρόμοιων περιστατικών στο μέλλον.

«Η υπόθεση φωτίζει επίσης τις προκλήσεις που αντιμετωπίζουν οι δημιουργοί τεχνολογιών AI όσον αφορά την ευθύνη και την ηθική. Παρά την πρόοδο στην τεχνολογία, η απουσία σαφών κανόνων για την ασφαλή χρήση και την παροχή προειδοποιήσεων μπορεί να έχει τραγικές συνέπειες, ειδικά όταν οι χρήστες βασίζονται αποκλειστικά στις συστάσεις της μηχανής. Τα περιστατικά όπως αυτό αναδεικνύουν την ανάγκη για αυστηρότερους ελέγχους, ρυθμιστικά πλαίσια και ενημέρωση των χρηστών σχετικά με τα όρια και τους κινδύνους της τεχνητής νοημοσύνης», αναφέρει το εκτενές ρεπορτάζ του ιστότοπου Futurism.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Οι ειδικοί υπογραμμίζουν ότι η τεχνολογία μπορεί να είναι ένα ισχυρό εργαλείο για την υγεία μόνο εάν συνοδεύεται από ανθρώπινη επίβλεψη. Ανεξάρτητα από το πόσο ακριβείς ή λεπτομερείς είναι οι απαντήσεις μιας AI, η λήψη αποφάσεων που αφορούν τη σωματική ή ψυχική υγεία απαιτεί επαγγελματική εκτίμηση. Η περίπτωση του 60χρονου άνδρα αποτελεί ένα ηχηρό προειδοποιητικό παράδειγμα για τους χρήστες, τους προγραμματιστές και τους ρυθμιστικούς φορείς: η τεχνητή νοημοσύνη δεν είναι πανάκεια και η κακή χρήση της μπορεί να έχει σοβαρές, ακόμα και θανατηφόρες, συνέπειες.

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 
ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΑ CHAT GPT δηλητήρια θανατηφόρα
ΣΧΟΛΙΑΣΜΟΣ
Tο iefimerida.gr δημοσιεύει άμεσα κάθε σχόλιο. Ωστόσο δεν υιοθετούμε τις απόψεις αυτές καθώς εκφράζουν αποκλειστικά τον εκάστοτε σχολιαστή. Σχόλια με ύβρεις διαγράφονται χωρίς προειδοποίηση. Χρήστες που δεν τηρούν τους όρους χρήσης αποκλείονται.

ΔΕΙΤΕ ΕΠΙΣΗΣ

ΠΕΡΙΣΣΟΤΕΡΑ