Προϊόντα υπηρεσιών γενετικής τεχνητής νοημοσύνης, όπως το ChatGPT και το Midjourney, προσελκύουν την προσοχή της αγοράς. Σε αυτό το πλαίσιο, ο Σύνδεσμος Βιομηχανίας Τεχνητής Νοημοσύνης της Κορέας (KAIIA) διοργάνωσε τη «Σύνοδο Κορυφής Gen-AI 2023» στο COEX στο Samseong-dong της Σεούλ. Η διήμερη εκδήλωση στοχεύει στην προώθηση και την προώθηση της ανάπτυξης της γενετικής τεχνητής νοημοσύνης (AI), η οποία επεκτείνει ολόκληρη την αγορά.
Την πρώτη ημέρα, ξεκινώντας με την κεντρική ομιλία του Jin Junhe, επικεφαλής του τμήματος σύντηξης τεχνητής νοημοσύνης, μεγάλες εταιρείες τεχνολογίας όπως η Microsoft, η Google και η AWS που αναπτύσσουν και εξυπηρετούν ενεργά το ChatGPT, καθώς και βιομηχανίες χωρίς ίχνη που αναπτύσσουν ημιαγωγούς τεχνητής νοημοσύνης, παρευρέθηκαν και έκαναν σχετικές παρουσιάσεις, συμπεριλαμβανομένων των "Αλλαγές NLP που έφερε το ChatGPT" από τον Διευθύνοντα Σύμβουλο της Persona AI, Yoo Seung-jae, και "Δημιουργία ενός τσιπ υψηλής απόδοσης, ενεργειακής απόδοσης και κλιμακώσιμου AI Inference Chip για το ChatGPT" από τον Διευθύνοντα Σύμβουλο της Furiosa AI, Baek Jun-ho.
Ο Jin Junhe δήλωσε ότι το 2023, τη χρονιά του πολέμου της τεχνητής νοημοσύνης, το plug-in ChatGPT θα εισέλθει στην αγορά ως νέος κανόνας παιχνιδιού για τον τεράστιο ανταγωνισμό γλωσσικών μοντέλων μεταξύ Google και MS. Σε αυτήν την περίπτωση, προβλέπει ευκαιρίες σε ημιαγωγούς και επιταχυντές τεχνητής νοημοσύνης που υποστηρίζουν μοντέλα τεχνητής νοημοσύνης.
Η Furiosa AI είναι μια αντιπροσωπευτική εταιρεία κατασκευής ημιαγωγών τεχνητής νοημοσύνης στην Κορέα. Ο Διευθύνων Σύμβουλος της Furiosa AI, Baek, ο οποίος εργάζεται σκληρά για την ανάπτυξη ημιαγωγών τεχνητής νοημοσύνης γενικής χρήσης για να φτάσει την Nvidia, η οποία κατέχει το μεγαλύτερο μέρος της παγκόσμιας αγοράς υπερκλίμακας τεχνητής νοημοσύνης, είναι πεπεισμένος ότι «η ζήτηση για τσιπ στον τομέα της τεχνητής νοημοσύνης θα εκτοξευθεί στο μέλλον».
Καθώς οι υπηρεσίες τεχνητής νοημοσύνης γίνονται πιο περίπλοκες, αναπόφευκτα αντιμετωπίζουν αυξημένο κόστος υποδομής. Τα τρέχοντα προϊόντα GPU A100 και H100 της Nvidia διαθέτουν την υψηλή απόδοση και την υπολογιστική ισχύ που απαιτούνται για την τεχνητή νοημοσύνη, αλλά λόγω της αύξησης του συνολικού κόστους, όπως η υψηλή κατανάλωση ενέργειας και το κόστος ανάπτυξης, ακόμη και οι εξαιρετικά μεγάλες επιχειρήσεις είναι επιφυλακτικές ως προς τη μετάβαση σε προϊόντα επόμενης γενιάς. Η αναλογία κόστους-οφέλους εξέφρασε ανησυχία.
Από αυτή την άποψη, ο Baek προέβλεψε την κατεύθυνση της τεχνολογικής ανάπτυξης, λέγοντας ότι εκτός από την υιοθέτηση όλο και περισσότερων εταιρειών λύσεων τεχνητής νοημοσύνης, η ζήτηση της αγοράς θα είναι η μεγιστοποίηση της αποδοτικότητας και της απόδοσης εντός ενός συγκεκριμένου συστήματος, όπως η «εξοικονόμηση ενέργειας».
Επιπλέον, τόνισε ότι το σημείο εξάπλωσης της ανάπτυξης ημιαγωγών τεχνητής νοημοσύνης στην Κίνα είναι η «χρηστικότητα» και είπε ότι το κλειδί θα είναι η επίλυση του ζητήματος της υποστήριξης του περιβάλλοντος ανάπτυξης και της «προγραμματισμού».
Η Nvidia δημιούργησε το CUDA για να παρουσιάσει το οικοσύστημα υποστήριξής της και η διασφάλιση ότι η κοινότητα ανάπτυξης υποστηρίζει αντιπροσωπευτικά πλαίσια για βαθιά μάθηση, όπως το TensorFlow και το Pytoch, γίνεται μια σημαντική στρατηγική επιβίωσης για την παραγωγή.
Ώρα δημοσίευσης: 29 Μαΐου 2023





