«Πώς μπορούμε να διπλασιάσουμε το εμβαδόν ενός τετραγώνου;». Το ερώτημα, σύμφωνα με τον Πλάτωνα, έθεσε ο Σωκράτης σε έναν μαθητή του και 2.400 χρόνια μετά το ChatGPT έκανε παρόμοια λάθη.
Εάν δεν έχει γίνει πλήρως κατανοητό, η Τεχνητή Νοημοσύνη δεν είναι μια εξελιγμένη εκδοχή των μηχανών αναζήτησης στο διαδίκτυο, αλλά ένας μηχανισμός που μπορεί να εμπεδώνει και να αναπαράγει γνώση, όπως κάνουμε οι άνθρωποι. Το πείραμα που έκαναν επιστήμονες πανεπιστημίων στο Κέμπριτζ και την Ιερουσαλήμ δείχνει πως ο μηχανισμός έχει ξεκινήσει να μας «μοιάζει».
Το πρόβλημα θεωρείται κλασικό της αρχαίας Ελλάδας, γράφουν οι συντάκτες του άρθρου στον ιστότοπο του Πανεπιστημίου του Κέμπριτζ.
Η άσκηση που επιλέχθηκε ήταν το γνωστό πρόβλημα του «διπλασιασμού του τετραγώνου», που αφηγείται ο Πλάτωνας τον 4ο αιώνα π.Χ.
Στο κείμενο, ο Σωκράτης ρωτά έναν νεαρό άνδρα πώς να διπλασιάσει το εμβαδόν ενός τετραγώνου. Το λάθος του μαθητή, το οποίο συνίστατο στον διπλασιασμό του μήκους των πλευρών αντί να χρησιμοποιήσει τη διαγώνιο, έγινε ένα κλασικό παράδειγμα στη συζήτηση εάν η μαθηματική γνώση είναι έμφυτη ή αποκτάται μέσω της εμπειρίας.
Οι ερευνητές στο Κέμπριτζ αλλά και το Εβραϊκό Πανεπιστήμιο της Ιερουσαλήμ θεώρησαν αυτό το πρόβλημα ιδανικό, επειδή η λύση δεν ήταν προφανής και, επειδή δεν βασιζόταν σε εικόνα, δύσκολα θα μπορούσε να εμφανιστεί στα δεδομένα εκπαίδευσης του ChatGPT.
Ο στόχος ήταν να ελεγχθεί εάν το μοντέλο ήταν ικανό να καταλήξει σε μια λογική λύση χωρίς να βασίζεται σε προηγούμενες πληροφορίες.
Απαντήσεις που παραπέμπουν στον ανθρώπινο συλλογισμό
Το αποτέλεσμα δεν ήταν ίδιο με αυτό του μαθητή. Το ChatGPT δεν έπεσε στην «παγίδα» να διπλασιάσει τις πλευρές, όπως έκανε ο μαθητής του Σωκράτη, αλλά έκανε παρόμοιο λάθος σε δεύτερο στάδιο.
Αρχικά, απάντησε σωστά, διπλασιάζοντας τη διαγώνιο του τετραγώνου. Όταν όμως οι επιστήμονες του έθεσαν το ίδιο πρόβλημα με ορθογώνιο, το ChatGPT κατέληξε σε λανθασμένο αποτέλεσμα, κάνοντας ένα σφάλμα συγκρίσιμο με αυτό που θα έκανε ένας μαθητής κατά τη μαθησιακή διαδικασία.
«Όταν αντιμετωπίζουμε ένα νέο πρόβλημα, το ένστικτό μας είναι να δοκιμάσουμε πράγματα με βάση την προηγούμενη εμπειρία. Στο πείραμά μας, το ChatGPT φάνηκε να συμπεριφέρεται παρόμοια» σημείωσε ο Ναντάι Μάρκο, επισκέπτης ερευνητής στο Cambridge.
Σύμφωνα με τον Μάρκο, η πιθανότητα αυτές οι απαντήσεις να βρίσκονται στα δεδομένα εκπαίδευσης ήταν «πρακτικά μηδενική», ενισχύοντας την ιδέα ότι το σύστημα αυτοσχεδίαζε με βάση τον διάλογο. Αυτό το χαρακτηριστικό το φέρνει πιο κοντά στον τρόπο με τον οποίο οι άνθρωποι δημιουργούν υποθέσεις και δοκιμάζουν τα δικά τους συμπεράσματα.
Έλληνας καθηγητής του Κέμπριτζ: Το ChatGPT λειτουργεί όπως η «ζώνη της επικείμενης ανάπτυξης»
Ο καθηγητής Ανδρέας Στυλιανίδης συνέδεσε αυτήν τη συμπεριφορά με τη «ζώνη της επικείμενης ανάπτυξης», μια έννοια στην παιδαγωγική που περιγράφει τη διαφορά μεταξύ αυτού που ένας μαθητής έχει ήδη κατακτήσει και αυτού που μπορεί να μάθει με καθοδήγηση.
Απροσδόκητα, το ChatGPT φάνηκε να εφαρμόζει τον ίδιο μηχανισμό, αναπτύσσοντας νέες προτάσεις χωρίς απλώς να επαναλαμβάνει δεδομένα.
Η μελέτη, που δημοσιεύθηκε στο Διεθνές Περιοδικό Μαθηματικής Εκπαίδευσης στην Επιστήμη και την Τεχνολογία, υπογραμμίζει ότι δεν μπορεί ακόμη να ειπωθεί ότι η τεχνητή νοημοσύνη σκέφτεται σαν άνθρωπος. Ωστόσο, υποδηλώνει ότι αυτός ο τύπος συμπεριφοράς έχει ορισμένες ομοιότητες.