Όλοι γνωρίζουμε ότι τα εργαλεία AI μπορούν να κάνουν πολλά αυτές τις μέρες. Πόσο καλά όμως είναι αυτά τα εργαλεία για αναζήτηση στο διαδίκτυο;
Είναι μια σημαντική ερώτηση και έχει πολλές επιπτώσεις. Διότι σύμφωνα με έρευνα της Future (εκδότης του TechRadar), σχεδόν το ένα τρίτο των ερωτηθέντων στις ΗΠΑ λένε ότι χρησιμοποιούν πλέον τεχνητή νοημοσύνη αντί για παραδοσιακές μηχανές αναζήτησης, όπως η Google.
Μερικοί άνθρωποι στρέφονται στο ChatGPT και σε άλλα chatbots. Ενώ άλλοι χρησιμοποιούν εργαλεία AI ειδικά σχεδιασμένα για έρευνα και έρευνα, όπως το Perplexity. Ακόμα κι αν δεν επιλέγουμε ενεργά εργαλεία τεχνητής νοημοσύνης, η τεχνητή νοημοσύνη εμφανίζεται ούτως ή άλλως στις αναζητήσεις μας, όπως αυτές οι μικρές περιλήψεις Google που εμφανίζονται πλέον στην κορυφή των αποτελεσμάτων αναζήτησης.
Εν ολίγοις, η αναζήτηση με τεχνητή νοημοσύνη είναι παντού. Αλλά το πραγματικό ερώτημα παραμένει: είναι πραγματικά καλό; Αυτό είναι που αρχίζουν να αναρωτιούνται οι ερευνητές και ας πούμε ότι οι αρχικές εκτιμήσεις δεν είναι εντυπωσιακές.
Είναι το ChatGPT η νέα Google; Όχι τόσο γρήγορα...
Οι άνθρωποι μπορούν να χρησιμοποιούν εργαλεία AI για έρευνα. Αλλά αυτό δεν σημαίνει ότι πρέπει.
Στις πρόσφατες δοκιμές μας, συγκρίναμε τέσσερα από τα καλύτερα chatbot AI μεταξύ τους για να δούμε πόσο καλά χειρίζονται την αναζήτηση: ChatGPT από το OpenAI, Gemini από την Google, Claude από το Anthropic και Perplexity AI.
Τα αποτελέσματα ήταν... μικτά. Δεν ήταν μια πλήρης καταστροφή—όλοι κατάφεραν να ανακτήσουν κάποιες σχετικές πληροφορίες—αλλά η ακρίβεια δεν ήταν μεγάλη. Και ο τρόπος με τον οποίο συνόψισαν αυτές τις πληροφορίες; Συχνά προκαλούν σύγχυση ή δεν βοηθούν.
Αυτά τα αποτελέσματα υποστηρίζουν πιο ολοκληρωμένες δοκιμές που διενεργήθηκαν από το Tow Center for Digital Journalism, όπως αναφέρεται στο Δημοσιογραφία της Κολούμπια. Η ομάδα τους εξέτασε οκτώ μεγάλα μοντέλα τεχνητής νοημοσύνης - συμπεριλαμβανομένων των ChatGPT, Perplexity, Copilot, Grok και Gemini - και βρήκε επαναλαμβανόμενα ζητήματα: «σίγουρη παρουσίαση εσφαλμένων πληροφοριών, παραπλανητική απόδοση κοινόχρηστου περιεχομένου και ασυνεπείς πρακτικές ανάκτησης πληροφοριών». Ωχ μου.
Συνολικά, τα μοντέλα τεχνητής νοημοσύνης έδωσαν εσφαλμένη απάντηση σε περισσότερο από το 60% των ερωτημάτων. Το Perplexity ήταν το πιο ακριβές (κάτι που συνάδει με το μάρκετινγκ ως εργαλείο έρευνας), αλλά παρόλα αυτά έλαβε λάθος το 37% των απαντήσεων. Ο Grok είχε τη χειρότερη απόδοση, με ένα συγκλονιστικό ποσοστό αποτυχίας 94%. Κανένα σχόλιο.
Το Κέντρο Tao αξιολόγησε τα αποτελέσματα σε μια κλίμακα από εντελώς σωστά έως εντελώς λανθασμένα (ή καθόλου απάντηση). Μερικά από τα χειρότερα παραδείγματα ήταν οι ξεκάθαρες ψευδαισθήσεις, όπου η τεχνητή νοημοσύνη απλά… φτιάχνει τα πράγματα. Αλλά ακόμα και όταν οι απαντήσεις δεν ήταν εντελώς λανθασμένες, εξακολουθούσαν να υπάρχουν μεγάλα προβλήματα με τον τρόπο με τον οποίο τα εργαλεία συμπλήρωναν εκ νέου τις ειδήσεις και τα αποτελέσματα αναζήτησης.
Έρευνα χωρίς πηγές δεν είναι καθόλου έρευνα.
Το θεμελιώδες πρόβλημα έγκειται στην αναπλαισίωση των πληροφοριών με αυτόν τον τρόπο. Ακόμα κι αν οι τεχνολογίες AI δεν παρέχουν ψευδείς πληροφορίες, εξακολουθούν να συνοψίζουν και να αναδιαμορφώνουν το περιεχόμενο με μη χρήσιμους και συχνά παραπλανητικούς τρόπους. Όπως εξηγεί το Tao Center:
«Ενώ οι παραδοσιακές μηχανές αναζήτησης συνήθως λειτουργούν ως μεσάζοντες, κατευθύνοντας τους χρήστες σε ειδησεογραφικούς ιστότοπους και περιεχόμενο υψηλής ποιότητας, τα εργαλεία δημιουργίας αναζήτησης αναλύουν και επανασυσκευάζουν πληροφορίες από μόνα τους, διακόπτοντας τη ροή επισκεψιμότητας προς τις αρχικές πηγές».
"Η έξοδος συνομιλίας αυτών των ρομπότ συχνά κρύβει σοβαρά υποκείμενα ζητήματα με την ποιότητα των πληροφοριών. Υπάρχει επείγουσα ανάγκη να αξιολογηθεί ο τρόπος με τον οποίο αυτά τα συστήματα έχουν πρόσβαση, προβολή και αναφορά σε περιεχόμενο ειδήσεων."
Ένα από τα πιο προφανή προβλήματα είναι το πόσο κακώς τα εργαλεία AI αναφέρουν τις πηγές τους. Για παράδειγμα, το ChatGPT συχνά συνδέεται με λάθος άρθρο, σας στέλνει στην αρχική σελίδα του ιστότοπου ή παραλείπει εντελώς τις αναφορές.
Αυτό είναι ένα πρόβλημα για δύο βασικούς λόγους. Πρώτον, οι εκδότες χάνουν επισκεψιμότητα, παρόλο που το περιεχόμενό τους χρησιμοποιείται.
Δεύτερον, ο έλεγχος των γεγονότων γίνεται δύσκολος. Ένας από τους μόνους τρόπους επαλήθευσης των αποτελεσμάτων της τεχνητής νοημοσύνης είναι η αναφορά στην αρχική πηγή – και αυτό είναι πιο δύσκολο αν δεν παρέχεται.
Επομένως, εάν η τεχνητή νοημοσύνη σάς παρέχει πληροφορίες αλλά χωρίς σαφή πηγή, αξίζει πραγματικά να τη χρησιμοποιήσετε για έρευνα – ειδικά αν τελικά ελέγχετε τα πάντα μέσω της Google; Ίσως όχι.
Ναι, τα εργαλεία AI βελτιώνονται συνεχώς. Και ναι, κάποιοι, όπως το Perplexity, αποδίδουν καλύτερα από άλλους. Αλλά και οι καλύτεροι εξακολουθούν να χρειάζονται ανθρώπινη επίβλεψη. Επί του παρόντος, όσον αφορά την έρευνα, τα ρομπότ δεν είναι έτοιμα να λειτουργήσουν αυτόνομα.