Το πρόγραμμα της Google που ήρθε να ανταγωνιστεί το ChatGPT της OpenAI και άλλα ανάλογα λογισμικά, έδωσε «εκνευριστικές έως γελοίες, απαντήσεις», σε πολλούς Αμερικανούς που θέλησαν να το χρησιμοποιήσουν, όπως αναφέρουν μέσα ενημέρωσης στην άλλη ακτή του Ατλαντικού. «Η μηχανή αναζήτησης της Google δεν μπορεί να διακρίνει σωστά την πληροφορία από τη σάτιρα», τονίζεται.
Ήδη τα «εκνευριστικά» σχόλια και οι απαντήσεις που δίνει το πρόγραμμα της Google, ακόμη και ενοχλητικά σφάλματα στο λογισμικό, έχουν κάνει τον γύρο του Διαδικτύου: Ένας χρήστης δημοσίευσε σύσταση του AI Overviews, να βάλει …μη τοξική κόλλα στο τυρί για να κάνει καλύτερη …πίτσα. Σε άλλες ερωτήσεις, η μηχανή αναζήτησης υποστήριξε ότι τα σκυλιά παίζουν… μπάσκετ στο πρωτάθλημα του NBA, αλλά και …ποδόσφαιρό στο πρωτάθλημα NFL.
Σύμφωνα επίσης με άλλη απάντηση που έδωσε το λογισμικό της Google, πρόγραμμα της Google, ο Μπαράκ Ομπάμα ήταν ο πρώτος μουσουλμάνος πρόεδρος των ΗΠΑ.
Σε πολλές περιπτώσεις, το λογισμικό AI δεν μπορεί να διακρίνει σοβαρές πληροφορίες από αστεία ή σάτιρα. Οι ερωτήσεις ήταν σε κάποιες περιπτώσεις, χιουμοριστικές αναρτήσεις σε διαδικτυακές πλατφόρμες ή άρθρα στον σατιρικό ιστότοπο «The Onion». Μια απάντηση που δόθηκε επίσης ήταν ότι οι γεωλόγοι συνιστούν να τρώμε ένα μικρό… πετραδάκι την ημέρα.
Εκπρόσωπος της Google δήλωσε πάντως στο τεχνολογικό blog The Verge ότι τα σφάλματα «οφείλονται γενικά σε πολύ ασυνήθιστα αιτήματα και δεν είναι αυτό που αντιμετωπίζουν οι περισσότεροι άνθρωποι». Αυτά τα «μεμονωμένα παραδείγματα», θα χρησιμοποιηθούν για τη βελτίωση του προϊόντος, πρόσθεσε.