Πώς θα τελειώσει η ανθρωπότητα; – Οι ειδικοί αποκαλύπτουν τη ζοφερή πραγματικότητα

Από αρχαίους προφήτες μέχρι σύγχρονους συνωμοσιολόγους, οι άνθρωποι πάντα αναρωτιούνταν πώς θα τελειώσει ο κόσμος. Θα είναι η κλιματική αλλαγή, μια φυσική καταστροφή ή μια εξωγήινη εισβολή;

Οι ειδικοί όμως αποκαλύπτουν ότι η πιο πιθανή αιτία της εξαφάνισής μας βρίσκεται πολύ πιο κοντά – μέσα μας. Η ανθρώπινη δραστηριότητα φαίνεται να είναι ο πιο ρεαλιστικός τρόπος με τον οποίο θα καταστραφούμε.

Ο πυρηνικός πόλεμος

Από τότε που ο Τζούλιους Ρόμπερτ Οπενχάιμερ ψιθύρισε τη φράση «Έγινα ο θάνατος, ο καταστροφέας των κόσμων» το 1945, ο φόβος για τον πυρηνικό όλεθρο δεν έχει πάψει να πλανάται πάνω από την ανθρωπότητα. Αν και μετά τη Χιροσίμα και το Ναγκασάκι δεν έχει χρησιμοποιηθεί ξανά πυρηνικό όπλο, αρκεί ένα λάθος ή μια παρεξήγηση για να προκληθεί ολοκληρωτική καταστροφή.

Ο Dr Rhys Crilley, ειδικός στις διεθνείς σχέσεις στο Πανεπιστήμιο της Γλασκώβης, δήλωσε: «Ο πυρηνικός πόλεμος θα μπορούσε να βάλει τέλος στον πολιτισμό μέσα σε λίγες ώρες. Η κλιματική αλλαγή είναι μια αργή κρίση που ήδη αλλάζει τον κόσμο μας, ενώ τα πυρηνικά όπλα μπορούν να προκαλέσουν άμεση, ολοκληρωτική καταστροφή».

Σήμερα, εννέα χώρες διαθέτουν πυρηνικά όπλα: οι Ηνωμένες Πολιτείες, η Ρωσία, η Κίνα, η Γαλλία, το Ηνωμένο Βασίλειο, η Ινδία, το Πακιστάν, το Ισραήλ και η Βόρεια Κορέα. Δεν απαιτείται καν επίσημη κήρυξη πολέμου για να ξεσπάσει ένα πυρηνικό συμβάν – όπως απέδειξε ο Σοβιετικός αξιωματικός Vasili Arkhipov το 1962, όταν απέτρεψε την καταστροφή κατά την Κρίση των Πυραύλων της Κούβας.

Η τεχνητή νοημοσύνη ως νέα απειλή

Ο πυρηνικός όλεθρος δεν είναι η μόνη απειλή που έχουμε δημιουργήσει. Η τεχνητή νοημοσύνη μπορεί να αποτελέσει τον νέο εχθρό της ανθρωπότητας. Ο Geoffrey Hinton, γνωστός ως «νονός της τεχνητής νοημοσύνης», δήλωσε ότι υπάρχει «πιθανότητα 10% έως 20%» να προκαλέσει η ΑΙ την αποκάλυψη μέσα στα επόμενα χρόνια.

«Ποτέ δε χρειάστηκε να αντιμετωπίσουμε κάτι πιο έξυπνο από εμάς», είπε. «Οι περισσότεροι ειδικοί πιστεύουν ότι μέσα στα επόμενα 20 χρόνια θα αναπτύξουμε ΑΙ πιο έξυπνη από τον άνθρωπο. Και αυτή είναι μια πολύ τρομακτική σκέψη».

Το Κέντρο Ασφάλειας Τεχνητής Νοημοσύνης (Centre for AI Safety) έχει προειδοποιήσει ότι ο κίνδυνος από την ΑΙ πρέπει να θεωρείται εξίσου σοβαρός με τις πανδημίες και τον πυρηνικό πόλεμο. «Ο μετριασμός του κινδύνου εξαφάνισης από την ΑΙ πρέπει να αποτελέσει παγκόσμια προτεραιότητα, δίπλα σε άλλους κινδύνους μεγάλης κλίμακας», ανέφερε η δήλωση που υπέγραψαν ο Hinton και πολλοί ακόμη ειδικοί.

Η ανθρωπότητα, φαίνεται, δε χρειάζεται εξωγήινους ή ηφαίστεια για να αφανιστεί – ίσως αρκεί η ίδια η τεχνολογία και η ύβρις της.

Απάντηση

This site uses Akismet to reduce spam. Learn how your comment data is processed.