Τεχνητή νοημοσύνη: Δυο χρόνια προθεσμία έχουν οι άνθρωποι για να δαμάσουν τα φονικά συστήματα - OlaDeka

Τεχνητή νοημοσύνη: Δυο χρόνια προθεσμία έχουν οι άνθρωποι για να δαμάσουν τα φονικά συστήματα

Τεχνητή νοημοσύνη: Τα συστήματα τεχνητής νοημοσύνης θα είναι αρκετά ισχυρά για να «σκοτώσουν πολλούς ανθρώπους» μέσα σε μόλις δύο χρόνια, προειδοποίησε ο σύμβουλος του Rishi Sunak

Σύμβουλος του Σούνακ προειδοποιεί: Σε δύο χρόνια η τεχνητή νοημοσύνη θα μπορεί να σκοτώσει πολλούς ανθρώπους

Ανησυχία προκάλεσαν οι δηλώσεις του συμβούλου του Βρετανού πρωθυπουργού Ρίσι Σούνακ για τις απειλές από βιολογικά όπλα και κυβερνοεπιθέσεις.

Όπως αναφέρεται σε δημοσίευμα της εφημερίδας The Times των Μαρκ Σέλμαν και Τομ Γουίπλ, ο Ματ Κλίφορντ προειδοποίησε ότι τα συστήματα τεχνητής νοημοσύνης θα είναι αρκετά ισχυρά για να «σκοτώσουν πολλούς ανθρώπους» μέσα σε μόλις δύο χρόνια.

Ο Ματ Κλίφορντ είπε ότι τον κρατούσε ξύπνιο τη νύχτα η παραδοχή των κορυφαίων ειδικών της τεχνητής νοημοσύνης στον κόσμο ότι «δεν καταλαβαίνουν ακριβώς» πώς αυτά τα συστήματα «εμφανίζουν τις συμπεριφορές που κάνουν» – μια κατάσταση που συμφώνησε ότι ήταν τρομακτική.

Ειδικότερα, σημειώνεται πως ο σύμβουλος του πρωθυπουργού υπογράμμισε την ανάγκη οι υπεύθυνοι χάραξης πολιτικής πρέπει να είναι προετοιμασμένοι για απειλές που κυμαίνονται από κυβερνοεπιθέσεις έως τη δημιουργία βιοόπλων, εάν η ανθρωπότητα δεν βρει τρόπο να ελέγξει την τεχνολογία. Μεσοπρόθεσμα, όπως προστίθεται, οι ειδικοί προειδοποιούν ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για τον σχεδιασμό χημικών και βιολογικών όπλων και τη διεξαγωγή μαζικών επιθέσεων μέσω του Διαδικτύου.

Μάλιστα είπε ότι η ανθρώπινη φυλή μπορεί να έχει μόνο δύο χρόνια απομένουν για να δαμάσει τα προηγμένα συστήματα τεχνητής νοημοσύνης προτού γίνουν πολύ ισχυρά για να τα ελέγξει, προειδοποίησε ο επικεφαλής σύμβουλος του Rishi Sunak για την τεχνολογία.

Ο κ. Clifford, ο οποίος είναι σύμβουλος της Task Force AI του Πρωθυπουργού, είπε ότι συμφωνεί με τη δήλωση 350 ειδικών την περασμένη εβδομάδα ότι η τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει υπαρξιακό κίνδυνο για την ανθρωπότητα.

Η ανησυχία από τον αντίκτυπο της τεχνητής νοημοσύνης στο μέλλον της ανθρωπότητας χτύπησε κόκκινο την περασμένη εβδομάδα, με την υπογραφή κοινής δήλωσης από 350 ειδικούς της τεχνητής νοημοσύνης, συμπεριλαμβανομένου του Διευθύνοντος Συμβούλου του OpenAI, που ανέπτυξε το ChatGPT. Προειδοποίησαν ότι υπήρχε κίνδυνος μακροπρόθεσμα ότι η τεχνολογία θα μπορούσε να οδηγήσει στην εξαφάνιση της ανθρωπότητας.

Ο Κλίφορντ, ο οποίος προεδρεύει της Κυβερνητικής Υπηρεσίας Προηγμένης Έρευνας και Εφεύρεσης (Aria), είπε ότι αυτό «ακούγεται σαν την πλοκή μιας ταινίας» αλλά είναι μια πραγματική ανησυχία – και ένας λόγος για τον οποίο οι χώρες έπρεπε να εργαστούν πέρα από τα σύνορα για να θεσπίσουν κανονισμούς. «Το είδος του υπαρξιακού κινδύνου για το οποίο νομίζω ότι μιλούσαν οι υπογράφοντες είναι τι θα συμβεί μόλις δημιουργήσουμε μια νοημοσύνη που είναι μεγαλύτερη από τους ανθρώπους», σημείωσε, προσθέτοντας ότι σε μια «αυξητική» χρονική κλίμακα θα μπορούσαμε να έχουμε έναν υπολογιστή πιο έξυπνο από έναν άνθρωπο μέσα σε δύο μόλις χρόνια. «Αν προσπαθήσουμε να δημιουργήσουμε τεχνητή νοημοσύνη που είναι πιο έξυπνη από τους ανθρώπους και δεν ξέρουμε πώς να την ελέγξουμε, τότε αυτό θα δημιουργήσει μια πιθανότητα για κάθε είδους κινδύνους τώρα και στο μέλλον», τόνισε, προσθέτοντας ότι «είναι σωστό αυτό να βρίσκεται πολύ ψηλά στην ατζέντα των υπευθύνων χάραξης πολιτικής».

Πηγή: The Times

Via

Κοινοποίηση
recurring
Σας αρέσει το OlaDeka?
Κάντε μας like στο Facebook!
Κλείσιμο
Ola Deka Kastoria