«Νονός» της τεχνητής νοημοσύνης: 10-20% πιθανότητα η ΑΙ να εξαλείψει την ανθρωπότητα τα επόμενα 30 χρόνια

w21 102127w20171256w2091022w05194929w0394223w1790835w1781059w13135009w07212414w29175030w1517271331

Ο βραβευμένος με Νόμπελ καθηγητής τονίζει ότι πρέπει να μπουν κανόνες στην τεχνητή νοημοσύνη.

Ο Τζέφρι Χίντον, που αποκαλείται και «νονός» της τεχνητής νοημοσύνης εμφανίστηκε ελαφρώς πιο απαισιόδοξος στην πρόβλεψή του για τις πιθανότητες να αφανίσει η ΑΙ την ανθρωπότητα τις επόμενες τρεις δεκαετίες, καθώς ο ρυθμός ανάπτυξης αυτής της τεχνολογίας είναι πολύ ταχύτερος από τον αναμενόμενο.

Ο Βρετανοκαναδός επιστήμονας- που φέτος βραβεύθηκε με Νόμπελ φυσικής για τη δουλειά του σχετικά με την τεχνητή νοημοσύνη- εκτιμά πλέον ότι υπάρχει «10% με 20%» πιθανότητα η ΑΙ να οδηγήσει στον αφανισμό της ανθρωπότητας τις επόμενες τρεις δεκαετίες. Στο παρελθόν είχε δηλώσει ότι υπήρχε 10% πιθανότητα αυτή η τεχνολογία να προκαλέσει ένα καταστροφικό αποτέλεσμα για την ανθρωπότητα.

«Ποτέ δεν χρειάστηκε να αντιμετωπίσουμε πράγματα πιο έξυπνα από εμάς», σημείωσε μιλώντας στο BBC, όταν του επεσήμαναν ότι αύξησε τις πιθανότητες, σε σύγκριση με την προηγούμενη εκτίμησή του.

«Και πόσα παραδείγματα ξέρετε με ένα περισσότερο έξυπνο πράγμα που ελέγχεται από ένα λιγότερο έξυπνο; Υπάρχουν πολύ λίγα παραδείγματα. Υπάρχει η μητέρα και το μωρό. Η εξέλιξη έκανε πολλή δουλειά για να επιτρέψει στο μωρό να ελέγχει τη μητέρα, αλλά αυτό είναι το μόνο παράδειγμα που γνωρίζω» , συμπλήρωσε ο επίτιμος καθηγητής στο πανεπιστήμιο του Τορόντο.

Ο Τζέφρι Χίντον σημείωσε ότι οι άνθρωποι είναι σαν νήπια σε σύγκριση με τη νοημοσύνη των εξαιρετικά ισχυρών συστημάτων AI. «Μου αρέσει να το σκέφτομαι ως εξής: φανταστείτε τον εαυτό σας και ένα τρίχρονο. Εμείς θα είμαστε τα τρίχρονα», εξήγησε.

Πέρυσι, ο καθηγητής βρέθηκε στην επικαιρότητα όταν παραιτήθηκε από την Google προκειμένου να μιλά πιο ανοιχτά για τους κινδύνους που θέτει η απεριόριστη ανάπτυξη της τεχνητής νοημοσύνης, εκφράζοντας ανησυχίες ότι «κακοί παράγοντες» θα χρησιμοποιήσουν την τεχνολογία για να βλάψουν άλλους.

«Βρισκόμαστε τώρα σε μια κατάσταση που κάνει τους περισσότερους ειδικούς του τομέα να πιστεύουν ότι κάποια στιγμή, πιθανότατα μέσα στα επόμενα 20 χρόνια, θα αναπτύξουμε τεχνητή νοημοσύνη που θα είναι πιο έξυπνη από τους ανθρώπους. Και αυτή είναι μια πολύ τρομακτική σκέψη», υπογράμμισε στις δηλώσεις του.

Ο ρυθμός ανάπτυξης είναι «πάρα πολύ γρήγορος, πολύ ταχύτερος από ό,τι περίμενα», συμπλήρωσε και τόνισε πως πρέπει να μπουν κανόνες.

«Η ανησυχία μου είναι πως το αόρατο χέρι δεν θα μας κρατήσει ασφαλείς. Οπότε, αν το αφήσουμε απλά στο κίνητρο του κέρδους των μεγάλων εταιρειών, αυτό δεν είναι αρκετό για να διασφαλίσουμε ότι την αναπτύσσουν με ασφάλεια», υπογράμμισε. «Το μόνο πράγμα που μπορεί να αναγκάσει αυτές τις μεγάλες εταιρείες να κάνουν περισσότερη έρευνα για την ασφάλεια, είναι οι κυβερνητικοί κανόνες», κατέληξε.

Πηγή: Guardian Via

Κοινοποίηση
recurring
Σας αρέσει το OlaDeka?
Κάντε μας like στο Facebook!
Κλείσιμο
Ola Deka Kastoria