Να παγώσει η ανάπτυξη τεχνητής νοημοσύνης για έξι μήνες ζητούν ο Έλον Μασκ και άλλοι ειδικοί -Τι τους ανησυχεί - iefimerida.gr

Να παγώσει η ανάπτυξη τεχνητής νοημοσύνης για έξι μήνες ζητούν ο Έλον Μασκ και άλλοι ειδικοί -Τι τους ανησυχεί

O Έλον Μασκ μεταξύ εκείνων που υπογράφουν επιστολή για την τεχνητή νοημοσύνη
O Αμερικανός δισεκατομμυριούχος Έλον Μασκ / Φωτογραφία αρχείου: AP Photo/Jae C. Hong
NEWSROOM IEFIMERIDA.GR

Ειδικοί στον τομέα της τεχνητής νοημοσύνης υπέγραψαν κοινή επιστολή και ζητούν την εξάμηνη παύση στην ανάπτυξη των ισχυρών συστημάτων του κλάδου.

Στην ανοιχτή επιστολή επισημαίνονται οι πιθανοί κίνδυνοι από την ανάπτυξη συστημάτων τεχνητής νοημοσύνης (ΑΙ) ισχυρότερων του GPT-4 της OpenAI, το οποίο μόλις κυκλοφόρησε και έχει εντυπωσιάσει τους ειδικούς με τις τεράστιες δυνατότητές του.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Εκτός ελέγχου η ανάπτυξη της τεχνητής νοημοσύνης, σύμφωνα με επιστολή ειδικών

Σύμφωνα με όσα γράφει η επιστολή, που εκδόθηκε από το μη κερδοσκοπικό Ινστιτούτο «Future of Life Institute» και υπογράφεται από περισσότερα από 1.000 άτομα, η ανάπτυξη των συστημάτων ΑΙ φαίνεται ότι βγαίνει εκτός ελέγχου και εγκυμονεί κινδύνους για την ανθρωπότητα.

Ο επικεφαλής του Twitter, Έλον Μασκ, είναι μεταξύ εκείνων που θέλουν να σταματήσει η εκπαίδευση των συστημάτων τεχνητής νοημοσύνης που υπερβαίνουν ένα ορισμένο επίπεδο ικανοτήτων, για τουλάχιστον έξι μήνες.

Ο συνιδρυτής της Apple, Στίβεν Βόζνιακ, και ορισμένοι ερευνητές της DeepMind υπέγραψαν επίσης την επιστολή.

Η OpenAI, η εταιρεία που βρίσκεται πίσω από το ChatGPT, κυκλοφόρησε πρόσφατα το GPT-4, ένα σύστημα τελευταίας τεχνολογίας, που έχει εντυπωσιάσει με την ικανότητά του να «διαβάζει» εικόνες και να σχολιάζει τμήματά τους.

Παύση στην ανάπτυξη συστημάτων τεχνητής νοημοσύνης για έξι μήνες ζητούν ο Έλον Μασκ και ειδικοί του κλάδου

Η επιστολή θέλει να σταματήσει προσωρινά η ανάπτυξη σε αυτό το επίπεδο, προειδοποιώντας για τους κινδύνους που μπορεί να προκαλέσουν μελλοντικά, πιο προηγμένα συστήματα.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

«Τα συστήματα τεχνητής νοημοσύνης με νοημοσύνη ανταγωνιστική προς την ανθρώπινη μπορούν να θέσουν βαθύτατους κινδύνους για την κοινωνία και την ανθρωπότητα», αναφέρεται.

Η προηγμένη τεχνητή νοημοσύνη πρέπει να αναπτύσσεται με προσοχή, αναφέρει η επιστολή, αλλά, αντίθετα, «τους τελευταίους μήνες τα εργαστήρια τεχνητής νοημοσύνης έχουν εγκλωβιστεί σε έναν ανεξέλεγκτο αγώνα δρόμου για την ανάπτυξη όλο και πιο ισχυρών ψηφιακών μυαλών που κανείς -ούτε καν οι δημιουργοί τους- δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει αξιόπιστα».

Τεχνητή νοημοσύνη: Γιατί προκαλεί ανησυχίες

Η επιστολή προειδοποιεί ότι η τεχνητή νοημοσύνη θα μπορούσε να πλημμυρίσει τα κανάλια πληροφοριών με παραπληροφόρηση και να αντικαταστήσει τις θέσεις εργασίας με αυτοματοποίηση.

Η επιστολή ακολουθεί πρόσφατη έκθεση της επενδυτικής τράπεζας Goldman Sachs, η οποία ανέφερε ότι ενώ η τεχνητή νοημοσύνη είναι πιθανό να αυξήσει την παραγωγικότητα, εκατομμύρια θέσεις εργασίας θα μπορούσαν να αυτοματοποιηθούν.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Η επιστολή διερωτάται: «Θα πρέπει να αναπτύξουμε μη ανθρώπινα μυαλά που θα μπορούσαν τελικά να μας ξεπεράσουν […] και να μας αντικαταστήσουν;».

Πάντως, η OpenAI δεν έχει σχολιάσει δημοσίως την επιστολή.

Με την επιστολή ζητείται από τα εργαστήρια τεχνητής νοημοσύνης «να διακόψουν αμέσως για τουλάχιστον έξι μήνες την εκπαίδευση συστημάτων τεχνητής νοημοσύνης ισχυρότερων από το GPT-4».

Εάν μια τέτοια καθυστέρηση δεν μπορεί να τεθεί σε ισχύ γρήγορα, οι κυβερνήσεις θα πρέπει να παρέμβουν και να θεσπίσουν μορατόριουμ, αναφέρει η επιστολή, και προσθέτει ότι θα χρειαστούν επίσης «νέες και ικανές ρυθμιστικές αρχές, αφιερωμένες στην τεχνητή νοημοσύνη».

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 
ΣΧΟΛΙΑΣΜΟΣ
Tο iefimerida.gr δημοσιεύει άμεσα κάθε σχόλιο. Ωστόσο δεν υιοθετούμε τις απόψεις αυτές καθώς εκφράζουν αποκλειστικά τον εκάστοτε σχολιαστή. Σχόλια με ύβρεις διαγράφονται χωρίς προειδοποίηση. Χρήστες που δεν τηρούν τους όρους χρήσης αποκλείονται.

ΔΕΙΤΕ ΕΠΙΣΗΣ

ΠΕΡΙΣΣΟΤΕΡΑ