Τεχνητή νοημοσύνη: Γιατί είναι τόσο ακριβή

Σχεδόν 18 μήνες στη φρενίτιδα της τεχνητής νοημοσύνης, μερικές από τις μεγαλύτερες εταιρείες τεχνολογίας αποδεικνύουν ότι η τεχνητή νοημοσύνη μπορεί να αποτελέσει πραγματικό παράγοντα εσόδων. Αλλά είναι επίσης ένα τεράστιο… λάκκο στον οποίο μπορεί να πετάξει κανείς χρήματα.

Η Microsoft και η Google της Alphabet ανέφεραν αυξημένα έσοδα στο cloud κατά τα τελευταία τριμηνιαία αποτελέσματα, καθώς οι επιχειρηματικοί πελάτες ξόδεψαν περισσότερα στις υπηρεσίες τεχνητής νοημοσύνης τους. Η Meta Platforms, αν και πιο πίσω στη δημιουργία εσόδων από την τεχνολογία, είπε ότι οι προσπάθειές της για τεχνητή νοημοσύνη έχουν βοηθήσει στην ενίσχυση της αφοσίωσης των χρηστών και της στόχευσης των διαφημίσεων.

Για να επιτύχουν αυτά τα πρώτα κέρδη, οι τρεις εταιρείες έχουν ξοδέψει δισ. για την ανάπτυξη της τεχνητής νοημοσύνης – και σχεδιάζουν να αυξήσουν αυτές τις επενδύσεις ακόμη περισσότερο.

Στις 25 Απριλίου, η Microsoft δήλωσε ότι δαπάνησε 14 δισ. δολάρια σε κεφαλαιουχικές δαπάνες το πιο πρόσφατο τρίμηνο και αναμένει ότι το κόστος αυτό θα «αυξηθεί ουσιαστικά», εν μέρει λόγω επενδύσεων σε υποδομές τεχνητής νοημοσύνης. Αυτό ήταν μια αύξηση 79% σε σχέση με το προηγούμενο τρίμηνο.

Η Alphabet είπε ότι δαπάνησε 12 δισ. δολάρια κατά τη διάρκεια του τριμήνου, μια αύξηση 91% από πέρυσι, και αναμένει ότι το υπόλοιπο του έτους θα είναι «στο ή πάνω» από αυτό το επίπεδο, καθώς επικεντρώνεται στις ευκαιρίες τεχνητής νοημοσύνης.

Η Meta, εν τω μεταξύ, αύξησε τις εκτιμήσεις της για επενδύσεις για το έτος και τώρα πιστεύει ότι οι κεφαλαιουχικές δαπάνες θα είναι 35 έως 40 δισ. δολάρια, που θα ήταν μια αύξηση 42% στο υψηλότερο όριο του εύρους. Ανέφερε επίσης επιθετικές επενδύσεις στην έρευνα και ανάπτυξη προϊόντων AI.

Αυξάνεται το κόστος της έρευνας

Το αυξανόμενο κόστος της τεχνητής νοημοσύνης έχει «αιχμαλωτίσει» όμως ορισμένους επενδυτές, σύμφωνα με ανάλυση του Bloomberg. Η μετοχή της Meta, ειδικότερα, υποχώρησε λόγω των προβλέψεων δαπανών σε συνδυασμό με την βραδύτερη από την αναμενόμενη αύξηση των πωλήσεων.

Αλλά και εντός του κλάδου της τεχνολογίας, είναι εδώ και πολύ καιρό ευρεία η πεποίθηση ότι το κόστος της τεχνητής νοημοσύνης θα αυξηθεί.

Υπάρχουν δύο βασικοί λόγοι για αυτό: Τα μοντέλα τεχνητής νοημοσύνης γίνονται μόνο μεγαλύτερα και ακριβότερα στην ανάπτυξη και η παγκόσμια ζήτηση για υπηρεσίες τεχνητής νοημοσύνης απαιτεί τη δημιουργία πολλών περισσότερων κέντρων δεδομένων για την υποστήριξή τους.

Οι επιχειρήσεις που πειραματίζονται με τέτοιες υπηρεσίες τεχνητής νοημοσύνης μπορούν να ξοδέψουν εκατομμύρια για την προσαρμογή προϊόντων από το OpenAI ή την Google.

Μόλις τεθούν σε λειτουργία, υπάρχει ένα πρόσθετο κόστος κάθε φορά που κάποιος κάνει ping σε ένα chatbot ή ζητά από μια υπηρεσία τεχνητής νοημοσύνης να αναλύσει δεδομένα πωλήσεων.

Αλλά η πιο ακριβή εργασία είναι η οικοδόμηση των θεμελίων για αυτά τα συστήματα AI.

Τα μεγάλα γλωσσικά μοντέλα γίνονται ακόμη μεγαλύτερα

Τα πιο γνωστά προϊόντα τεχνητής νοημοσύνης σήμερα, συμπεριλαμβανομένου του ChatGPT του OpenAI, τροφοδοτούνται από μεγάλα γλωσσικά μοντέλα – συστήματα που τροφοδοτούνται με τεράστιο όγκο δεδομένων, συμπεριλαμβανομένων βιβλίων, άρθρων και σχολίων στο διαδίκτυο, προκειμένου να δίνουν τις καλύτερες δυνατές απαντήσεις σε ερωτήματα από χρήστες.

Πολλές από τις κορυφαίες εταιρείες τεχνητής νοημοσύνης στοιχηματίζουν ότι ο δρόμος προς την πιο εξελιγμένη τεχνητή νοημοσύνη -ίσως ακόμη και συστήματα τεχνητής νοημοσύνης που μπορούν να ξεπεράσουν τους ανθρώπους σε πολλές εργασίες- είναι να γίνουν αυτά τα μεγάλα γλωσσικά μοντέλα ακόμη μεγαλύτερα.

Αυτό απαιτεί την απόκτηση περισσότερων δεδομένων, περισσότερης υπολογιστικής ισχύος και επίσης εκπαίδευση συστημάτων AI για μεγαλύτερο χρονικό διάστημα. Σε μια συνέντευξη podcast στις αρχές Απριλίου, ο Dario Amodei, ο διευθύνων σύμβουλος της ανταγωνιστικής του OpenAI, Anthropic, είπε ότι η τρέχουσα παραγωγή μοντέλων AI στην αγορά κοστίζει περίπου 100 εκατ. δολάρια για την εκπαίδευση.

«Τα μοντέλα που εκπαιδεύονται τώρα και που θα βγουν σε διάφορες περιόδους αργότερα φέτος ή στις αρχές του επόμενου έτους είναι πιο κοντά σε κόστος στο 1 δισ. δολάρια», είπε. «Και μετά νομίζω ότι το 2025 και το 2026, θα πάρουμε περισσότερα από 5 ή 10 δισ. δολάρια».

Chips και υπολογιστικό κόστος

Μεγάλο μέρος αυτού του κόστους σχετίζεται με τις δυνατότητες. Αυτές δεν είναι οι κεντρικές μονάδες επεξεργασίας (CPU) που έκαναν διάσημη την Intel ή τα «ξαδέρφια» της που τροφοδοτούν τα πολλά smartphones.

Για την εκπαίδευση μεγάλων γλωσσικών μοντέλων, οι εταιρείες τεχνητής νοημοσύνης βασίζονται σε μονάδες επεξεργασίας γραφικών -GPU- που μπορούν να επεξεργάζονται τεράστιες ποσότητες δεδομένων σε υψηλές ταχύτητες. Όχι μόνο αυτά τα τσιπ είναι ελλιπή, αλλά είναι επίσης εξαιρετικά ακριβά, με τα πιο σύγχρονα χαρακτηριστικά που κατασκευάζονται κυρίως από μία μόνο εταιρεία: την Nvidia.

Το τσιπ γραφικών H100 της Nvidia, το χρυσό πρότυπο για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης, πωλείται για περίπου 30.000 δολ. – με ορισμένους μεταπωλητές να τα προσφέρουν για πολλαπλάσιο ποσό. Και οι μεγάλες εταιρείες τεχνολογίας χρειάζονται πολλά από αυτά.

Ο Διευθύνων Σύμβουλος της Meta Zuckerberg είχε δηλώσει προηγουμένως ότι η εταιρεία του σχεδίαζε να αποκτήσει 350.000 τσιπ H100 μέχρι το τέλος του τρέχοντος έτους για να υποστηρίξει τις ερευνητικές της προσπάθειες για την τεχνητή νοημοσύνη. Ακόμα κι αν λάβει έκπτωση για μαζικές αγορές, αυτό αθροίζεται εύκολα σε δισ. δολάρια.

Την ίδια ώρα, τον περασμένο μήνα, η Nvidia αποκάλυψε έναν νέο επεξεργαστή που ονομάζεται Blackwell, ο οποίος είναι πολλαπλάσιος στον χειρισμό μεγάλων γλωσσικών μοντέλων και αναμένεται να έχει παρόμοια τιμή με τη σειρά Hopper που περιλαμβάνει το H100. Η Nvidia είπε ότι θα χρειαστούν περίπου 2.000 GPU Blackwell για την εκπαίδευση ενός μοντέλου τεχνητής νοημοσύνης 1,8 τρισεκατομμυρίων παραμέτρων. Αυτό είναι το εκτιμώμενο μέγεθος του GPT-4 του OpenAI, σύμφωνα με την αγωγή των New York Times που κατατέθηκε για τη χρήση των άρθρων της εκκίνησης από την startup για την εκπαίδευση συστημάτων AI.

Συγκριτικά, η Nvidia είπε ότι απαιτεί 8.000 GPU Hopper για να εκτελέσει την ίδια εργασία. Αλλά αυτή η βελτίωση θα μπορούσε να αντισταθμιστεί από την ώθηση της βιομηχανίας για την κατασκευή μεγαλύτερων μοντέλων τεχνητής νοημοσύνης.

Κέντρα δεδομένων

Οι εταιρείες που αγοράζουν αυτά τα μηχανήματα χρειάζονται κάπου για να τις τοποθετήσουν. Η Meta, μαζί με τις μεγαλύτερες εταιρείες υπολογιστών cloud -Amazon, Microsoft και Google- και άλλοι πάροχοι υπολογιστικής ισχύος προς ενοικίαση αγωνίζονται για την κατασκευή νέων κέντρων διακομιστών. Αυτά τα κτίρια τείνουν να κατασκευάζονται κατά παραγγελία. Διατηρούν ράφια σκληρών δίσκων, επεξεργαστές, συστήματα ψύξης και στοίβες ηλεκτρικού εξοπλισμού και εφεδρικές γεννήτριες.

Ο ερευνητικός όμιλος Dell’Oro, εκτιμά ότι οι εταιρείες θα δαπανήσουν 294 δισ. δολάρια για την κατασκευή και τον εξοπλισμό κέντρων δεδομένων φέτος, από 193 δισ. δολάρια το 2020. Μεγάλο μέρος αυτής της επέκτασης παρακολουθεί την ευρεία άνοδο των ψηφιακών υπηρεσιών — ροή βίντεο, έκρηξη στα εταιρικά δεδομένα , τη ροή σας στα μέσα κοινωνικής δικτύωσης.

Ωστόσο, ένα αυξανόμενο μερίδιο αυτής της δαπάνης προορίζεται για ακριβά τσιπ Nvidia και άλλο εξειδικευμένο υλικό που είναι απαραίτητο για την υποστήριξη της έκρηξης της τεχνητής νοημοσύνης.

Πνευματικά δικαιώματα και ταλέντα

Ενώ τα τσιπ και τα κέντρα δεδομένων αποτελούν τη μερίδα του λέοντος στο κόστος, ορισμένες εταιρείες τεχνητής νοημοσύνης ξοδεύουν επίσης εκατομμύρια για την αδειοδότηση δεδομένων από εκδότες.

Το OpenAI έχει συνάψει συμφωνίες με αρκετούς ευρωπαίους εκδότες για να ενσωματώσει το περιεχόμενο ειδήσεων τους στο ChatGPT και επίσης να εκπαιδεύσει τα μοντέλα AI του. Οι οικονομικοί όροι αυτών των συμφωνιών δεν έχουν αποκαλυφθεί, αλλά το Bloomberg News ανέφερε ότι το OpenAI συμφώνησε να πληρώσει δεκάδες εκατομμύρια ευρώ στον Axel Springer SE, τον εκδότη του Politico και του Business Insider, για το δικαίωμα χρήσης των ειδησεογραφικών του άρθρων. Η startup έχει επίσης συνομιλίες με το Time, το CNN και το Fox News για την αδειοδότηση περιεχομένου.

Ενώ το OpenAI είναι πιο ενεργό στην εξασφάλιση συμφωνιών αδειοδότησης, οι μεγάλες εταιρείες τεχνολογίας αναζητούν επίσης τρόπους για να αποκτήσουν τα γλωσσικά δεδομένα που χρειάζονται για να δημιουργήσουν εργαλεία AI. Η Google έχει συνάψει συμφωνία 60 εκατομμυρίων δολαρίων για την αδειοδότηση δεδομένων από το Reddit, ανέφερε το Reuters. Και οι υπάλληλοι της Meta φέρεται να συζήτησαν να αγοράσουν τον εκδότη βιβλίων Simon & Schuster, σύμφωνα με τους New York Times.

Οι εταιρείες τεχνολογίας είναι επίσης εγκλωβισμένες σε έναν πυρετώδη πόλεμο για τα ταλέντα της AI. Κάποια στιγμή πέρυσι, η Netflix ζητούσε έναν διευθυντή προϊόντος AI, προσφέροντας μισθό έως και 900.000 δολάρια.

Φθηνότερες εναλλακτικές

Η Microsoft, η οποία έχει κάνει περισσότερα για να τροφοδοτήσει τη φρενίτιδα γύρω από τα μεγάλα γλωσσικά μοντέλα, δήλωσε πρόσφατα ότι θα δοκιμάσει μια διαφορετική προσέγγιση. Η εταιρεία πείραξε τρία μικρότερα μοντέλα τεχνητής νοημοσύνης που είναι λιγότερο υπολογιστικά.

Κατά την ίδια, τα γλωσσικά μοντέλα «θα εξακολουθούν να είναι το χρυσό πρότυπο για την επίλυση πολλών τύπων περίπλοκων εργασιών», όπως «προηγμένη λογική, ανάλυση δεδομένων και κατανόηση του πλαισίου». Αλλά μικρότερα μοντέλα μπορεί να είναι αρκετά για ορισμένους πελάτες και περιπτώσεις χρήσης.

Άλλες εταιρείες, συμπεριλαμβανομένης της Sakana AI, μιας startup που ιδρύθηκε από δύο πρώην υπαλλήλους της Google, εστιάζουν επίσης σε μικρότερα μοντέλα.

«Δεν χρειάζεσαι ένα σπορ αυτοκίνητο συνέχεια», είπε ο Rowan Curran, ανώτερος αναλυτής της Forrester Research που εστιάζει στην τεχνητή νοημοσύνη. «Μερικές φορές χρειάζεστε ένα μίνι βαν ή ένα φορτηγό. Δεν πρόκειται να είναι μια ευρεία κατηγορία μοντέλων που χρησιμοποιούν όλοι για όλες τις περιπτώσεις χρήσης».

Προς το παρόν, ωστόσο, η συμβατική σοφία στον κόσμο της τεχνητής νοημοσύνης είναι ότι το μεγαλύτερο είναι το καλύτερο. Και αυτό θα είναι δαπανηρό.

Πηγή: ΟΤ

Απάντηση

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.