Ψήφο εμπιστοσύνης στις δυνατότητες της τεχνητής νοημοσύνης δίνει ο Μπιλ Γκέιτς, υποστηρίζοντας ότι μοντέλα όπως το ChatGPT αποτελούν τη σημαντικότερη πρόοδο στην τεχνολογία μετά τη δημιουργία του προσωπικού υπολογιστή.

Η ανάδυση της τεχνητής νοημοσύνης μπορεί να προκαλέσει προβλήματα, όπως τα deepfakes, οι παραποιημένοι αλγόριθμοι και η αντιγραφή στα σχολεία λέει ο συνιδρυτής της Microsoft, αλλά θεωρεί ότι όλα αυτά είναι επιλύσιμα.

«Απ’ όσα έχουν γραφτεί ως τώρα – και έχουν γραφτεί πολλά – για τους κινδύνους της τεχνητής νοημοσύνης ένα πράγμα είναι σαφές, ότι ουδείς έχει όλες τις απαντήσεις», έγραψε ο Γκέιτς σε ανάρτησή του σε ιστολόγιο προ ημερών. «Κι ένα άλλο πράγμα, που είναι σαφές για μένα είναι ότι το μέλλον της τεχνητής νοημοσύνης δεν είναι τόσο ζοφερό όσο κάποιοι πιστεύουν, ούτε τόσο ρόδινο, όσο άλλοι θεωρούν».

Η μετριοπαθής προσέγγιση του Γκέιτς

Η μετριοπαθής άποψη του Γκέιτς αναφορικά με τους κινδύνους που απορρέουν από την τεχνητή νοημοσύνη θα μπορούσε να μετατοπίσει τη συζήτηση γύρω από την τεχνολογία αυτή μακριά από τα σενάρια καταστροφής προς μιας πιο περιορισμένη ρύθμιση που θα αντιμετωπίζει τους κινδύνους, την ώρα που κυβερνήσεις ανά την υφήλιο πασχίζουν να βρουν λύσεις, σχολιάζει το CNBC.

Ο Γκέιτς είναι από τις πιο σημαντικές φωνές που ακούγονται για την τεχνητή νοημοσύνη, η οποία, όπως προβλέπε,ι θα επιφέρει μεγάλες ανατροπές στο εγγύς μέλλον, ενώ ο ίδιος διατηρεί στενούς δεσμούς με τη Microsoft, που έχει επενδύσει στην OpenAI και έχει ενσωματώσει το ChatGPT σε βασικά της προϊόντα, όπως το Office.

Ο Γκέιτς έχει εξηγήσει από τον περασμένο Μάρτιο γιατί η τεχνητή νοημοσύνη θα είναι τόσο σημαντική όσο το κινητό και το Ίντερνετ και στην πρόσφατη ανάρτησή του σημειώνει ότι όπως προσαρμόστηκαν οι άνθρωποι σε μεγάλες αλλαγές στο παρελθόν το ίδιο θα κάνουν και τώρα. «Για παράδειγμα [η τεχνητή νοημοσύνη] θα έχει μεγάλη επίπτωση στην εκπαίδευση, αλλά το ίδιο έκαναν και οι φορητές αριθμομηχανές πριν από μερικές δεκαετίες και πιο πρόσφατα η χρήση ηλεκτρονικών υπολογιστών στις σχολικές τάξεις», λέει.

Γκέιτς: Η τεχνητή νοημοσύνη χρειάζεται όρια ταχύτητας και ζώνες ασφαλείας

Η εποχή της τεχνητής νοημοσύνης έχει ξεκινήσει κατά τον Γκέιτς και η ρύθμιση, που χρειάζεται η τεχνολογία αυτή, είναι «όρια ταχύτητας και ζώνες ασφαλείας».

«Λίγο μετά την εμφάνιση των πρώτων αυτοκινήτων στους δρόμους, έγινε το πρώτο αυτοκινητιστικό δυστύχημα. Αλλά δεν απαγορέψαμε τα αυτοκίνητα – βάλαμε όρια ταχύτητας, υιοθετήσαμε πρότυπα ασφαλείας, κανόνες για την άδεια οδήγησης, νόμους για την οδήγηση υπό την επήρεια μέθης και άλλους κανόνες», έγραψε.

Εκείνο που ανησυχεί τον Γκέιτς είναι κάποιες από τις προκλήσεις που θα προκύψουν από την υιοθέτηση της τεχνολογίας αυτής, όπως το πώς θα αλλάξει πιθανώς τις δουλειές των ανθρώπων, ή η τάση μοντέλων, όπως το ChatGPT να επινοούν γεγονότα, κείμενα και ανθρώπους. Αναφέρει ως παράδειγμα τα deepfakes, που χρησιμοποιούν μοντέλα τεχνητής νοημοσύνης επιτρέποντας σε κάποιους να φτιάχνουν ψεύτικα βίντεο, που θα μπορούσαν να χρησιμοποιηθούν για να εξαπατήσουν ανθρώπους ή να αλλοιώσουν εκλογικά αποτελέσματα, όπως γράφει.

Ταυτόχρονα, όμως, θεωρεί ότι οι άνθρωποι θα βελτιωθούν ως προς τον εντοπισμό των deepfakes και αναφέρει τους σχετικούς ανιχνευτές που αναπτύσσουν η Ιntel και η DARPA στις ΗΠΑ. Μια άλλη πηγή ανησυχίας για τον Γκέιτς είναι η ικανότητα της τεχνητής νοημοσύνης να αναζητά κενά σε λογισμικά, που χρειάζονται για το χακάρισμα ηλεκτρονικών υπολογιστών και προτείνει να συσταθεί μια ρυθμιστική Αρχή στα πρότυπα της Διεθνούς Υπηρεσίας Ατομικής Ενέργειας.

Πηγή: iefimerida.gr
Pin It