Skip to main content

ChatGPT: Πάνω από 1 εκατ. χρήστες εκφράζουν κάθε εβδομάδα αυτοκτονικές τάσεις

Τα στοιχεία της OpenAI

Πάνω από ένα εκατομμύριο χρήστες του ChatGPT εκφράζουν κάθε εβδομάδα αυτοκτονικές τάσεις στον βοηθό τεχνητής νοημοσύνης, σύμφωνα με ανάρτηση της εταιρείας OpenAI.

Η αμερικανική εταιρεία τεχνητής νοημοσύνης (AI) εκτιμά πως περίπου το 0,15% των χρηστών του ChatGPT στέλνουν μηνύματα που υποδηλώνουν «πιθανό σχεδιασμό ή πρόθεση αυτοκτονίας». Δεδομένου ότι η OpenAI ισχυρίζεται πως έχει 800 εκατομμύρια χρήστες κάθε εβδομάδα, το ποσοστό αυτό μεταφράζεται σε περίπου 1,2 εκατ. ανθρώπους.

Τα ευρήματα, που είναι μέρος μιας μελέτης σχετικά με τον τρόπο με τον οποίο το chatbot χειρίζεται ευαίσθητες συνομιλίες, προσφέρουν μια εικόνα σχετικά με το πώς η τεχνητή νοημοσύνη μπορεί να επιδεινώσει τα προβλήματα ψυχικής υγείας. Έχονται άλλωστε μετά το περιστατικό εφήβου που αυτοκτόνησε μετά από συνομιλία με το ChatGPT. 

Εκτός από τις εκτιμήσεις της σχετικά με τις αυτοκτονικές τάσεις και τις σχετικές αλληλεπιδράσεις με το chatbot, η OpenAI ανέφερε επίσης ότι περίπου το 0,07% των ενεργών χρηστών κάθε εβδομάδα (δηλαδή περίπου 560.000 από τους 800 εκατομμύρια εβδομαδιαίους χρήστες της) εμφανίζουν σημάδια τα οποία υποδηλώνουν κρίσεις ψυχικής υγείας που σχετίζονται με ψύχωση ή μανία. Σύμφωνα με την εταιρεία,  αυτές οι συζητήσεις είναι δύσκολο να εντοπιστούν ή να μετρηθούν και αυτή η εκτίμηση είναι μια πρώτη ανάλυση.

Τα στοιχεία αυτά δημοσιεύονται σε μια φάση που η OpenAI έχει ξεσηκώσει αντιδράσεις μετά τον θάνατο του Άνταμ Ρέιν, ενός εφήβου από την Καλιφόρνια, οι γονείς του οποίου κατέθεσαν πρόσφατα αγωγή σε βάρος της εταιρείας, καταγγέλλοντας πως το ChatGPT του παρείχε συγκεκριμένες συμβουλές για το πώς να αυτοκτονήσει.

Έκτοτε, η OpenAI έχει ενισχύσει τον γονικό έλεγχο και άλλες δικλείδες ασφαλείας, προτρέποντας μεταξύ άλλων τους χρήστες να αναζητήσουν βοήθεια από ειδικούς σε τηλεφωνικές γραμμές έκτακτης ανάγκης.

Η Ομοσπονδιακή Επιτροπή Εμπορίου ξεκίνησε επιπλέον τον περασμένο μήνα μια ευρεία έρευνα σε εταιρείες που δημιουργούν chatbots τεχνητής νοημοσύνης, συμπεριλαμβανομένης της OpenAI, για να διαπιστώσει πώς μετρούν τις αρνητικές επιπτώσεις σε παιδιά και εφήβους.

Παράλληλα, η εταιρεία γνωστοποίησε πως έχει ενημερώσει το μοντέλο της για να αναγνωρίζει και να ανταποκρίνεται καλύτερα σε χρήστες που αντιμετωπίζουν προβλήματα ψυχικής υγείας. Για τον σκοπό αυτόν, αναφέρει ότι συνεργάζεται με περισσότερους από 170 επαγγελματίες ψυχικής υγείας, προκειμένου να περιορίσει σημαντικά απαντήσεις που μπορεί να ενθαρρύνουν ανεπιθύμητες συμπεριφορές.

Η OpenAI ισχυρίστηκε σε ανάρτησή της ότι με το νέο γλωσσικό μοντέλο GPT-5 έχει μειωθεί ο αριθμός των ανεπιθύμητων συμπεριφορών και βελτιώθηκε η ασφάλεια των χρηστών, σε μια αξιολόγηση μοντέλου που περιελάμβανε πάνω από 1.000 συνομιλίες αυτοτραυματισμού και αυτοκτονίας.

Σύμφωνα με την OpenAI, το GPT-5 επέκτεινε την πρόσβαση στις γραμμές βοήθειας για την αντιμετώπιση κρίσεων και πρόσθεσε υπενθυμίσεις για τους χρήστες ώστε να κάνουν διαλείμματα κατά τη διάρκεια μεγάλων συνεδριών. Για να βελτιώσει το μοντέλο, η εταιρεία δήλωσε ότι αξιοποίησε 170 κλινικούς ιατρούς από το Παγκόσμιο Δίκτυο Ιατρών εμπειρογνωμόνων στον τομέα της υγειονομικής περίθαλψης για να βοηθήσουν στην έρευνά της τους τελευταίους μήνες, η οποία περιελάμβανε την αξιολόγηση της ασφάλειας των απαντήσεων του μοντέλου της και τη βοήθεια στη σύνταξη των απαντήσεων του chatbot σε ερωτήσεις που σχετίζονται με την ψυχική υγεία.