
Μια σειρά ανθρώπων στους οποίους οφείλεται η εκρηκτική ανάπτυξη της Τεχνητής Νοημοσύνης (AI), τους τελευταίους μήνες έχουν αναπάντεχα πάρει θέση δημόσια προειδοποιώντας για τους κινδύνους που εγκυμονεί αυτή η «διαδικασία».
Το διάγραμμα της Bofa καταδεικνύει την ιστορικά πρωτοφανή χρηματοδοτική επέκταση, η οποία δεν μπορεί να συμβαδίσει με το βασικό κριτήριο μιας ανάλογης κλίμακας απόδοσης αυτών των κεφαλαίων άμεσα!
Αυτή την απλή αλήθεια, την οποία μας είχε επισημάνει η «στιγμή sputnik» της DeepSeek πριν από ένα περίπου χρόνο υπενθυμίζει η Bofa με το εν λόγω συγκριτικό διάγραμμα. Τότε, πριν ένα χρόνο και κάτι, η γνωστή πλέον κινεζική εταιρεία AI είχε παράξει ένα μοντέλο ελεύθερης χρήσης LLM με αποτελεσματικότητα σχεδόν ανάλογη των πανάκριβων LLM των ΗΠΑ, με ασύγκριτα μικρότερη χρηματοδότηση. Μια τακτική η οποία σήμερα συνεχίζεται με ένα πλάνο χρηματοδότησης που δεν ξεπερνά τα 36 δις δολ. στην Κίνα για το 2026 και τα πάνω από 670 δις δολ. στις ΗΠΑ… Με μία αυτοσαρκαστική ειρωνική διάθεση ο επενδυτής του Bloomberg μας υπενθυμίζει ότι «πλησιάζουμε» την στιγμή της αλήθειας.
Ο δεύτερος κίνδυνος για τον οποίο κυρίως προειδοποιεί ο Mrinank Shama, πρώην επικεφαλής της έρευνας για την προστασία στην Anthropic που παραιτήθηκε πρόσφατα είναι ότι «Ο κόσμος βρίσκεται σε κίνδυνο. Και όχι μόνο λόγω της τεχνητής νοημοσύνης ή των βιολογικών όπλων, αλλά λόγω μιας σειράς αλληλένδετων κρίσεων που αναπτύσσονται αυτή τη στιγμή». Σύμφωνα με τον Shama η αιτία του κινδύνου δεν αφορά τις τεχνικές ή άλλες ατέλειες στους αλγόριθμους.
Αφορά εμάς και την ικανότητά μας να τους διαχειριστούμε.
Αφορά με άλλα λόγια την ανισορροπία ανάμεσα στην ταχύτητα ανάπτυξης της ΑΙ και της ικανότητάς μας να διαχειριστούμε προς «όφελός» μας τα αποτελέσματά της και τις δυνατότητες που αυτή δημιουργεί στον κόσμο που ζούμε…
Για τον ίδιο κίνδυνο προειδοποιεί και ο Dario Amodei που ίδρυσε την Anthropic (είχε φύγει από την OpenAI), με την ψευδαίσθηση ότι θα μπορούσε να ελέγχει αυτόν τον κίνδυνο. Τώρα προειδοποιεί ότι η ανθρωπότητα, κινδυνεύει από την ανεξέλεγκτη επέκταση της ΑΙ, να χάσει την ικανότητά της να ρυθμίζει και να ελέγχει την εξέλιξη των νέων μοντέλων Τεχνητής Νοημοσύνης. Και κατά συνέπεια να μπορεί να διαχειρίζεται τις επιπτώσεις της ανεξέλεγκτης «δράσης» τους.
Θα μπορούσε να πει κανείς ότι η διασύνδεση αυτών των δύο κινδύνων και η εκρηκτική αντίφαση που εμπεριέχεται σ’ αυτή, θα μπορούσε να λειτουργήσει σαν ένα καταστροφικό «φρένο» σ’ αυτή την ανεξέλεγκτη πορεία.
Ίσως, αλλά αυτό, αν συμβεί, θα κοστίσει πολύ πολύ ακριβά…


