Από αυτοκτονίες εφήβων έως τις δολοφονίες ανθρώπων με προβλήματα ψυχικής υγείας, η συζήτηση για το C.
“Ζήτησα από το Chatgpt, αυτό πρέπει να κάνουμε”, “έτσι το chatgpt είπε”, “Εντάξει, ποιος χρειάζεται έναν ψυχολόγο επειδή υπάρχει η γάτα GPT;”, “Δεν πρόκειται να φτιάξω γιατρό, η γάτα μου είπε ότι ήμουν κρύος”, “Έψαξα μια συνταγή που πρότεινε ο Chatgpt”. Αυτές είναι μερικές από τις προτάσεις που έχουμε ακούσει σίγουρα για το περιβάλλον μας, μόλις ήμασταν τόσο ξαφνικά στη ζωή μας τεχνητή νοημοσύνη.
Κάποιοι μπορούν να μας κάνουν να γελάμε, γιατί όλοι πέφτουμε στην παγίδα του να είμαστε πεπεισμένοι από το τι ένα bot, το οποίο μπορεί συχνά να μας πει τι θέλουμε να ακούσουμε. Ήταν πραγματικά σε θέση να λύσει ορισμένα προβλήματα που μας αφορούν και να είμαστε χρήσιμα. Και σίγουρα Είναι ένα από τα πιο επαναστατικά εργαλεία της εποχής.
Ωστόσο, τι συμβαίνει όταν η τεχνητή νοημοσύνη αποκτά πιο σκοτεινές επεκτάσεις; Μέχρι την ημερήσια επαφή που έχουμε με τη γάτα GPT μπορεί να συμβεί; Τα νέα που έχουμε δει πρόσφατα στις ροές μας είναι σίγουρα ανησυχητικές. Από αυτοκτονίες μέχρι δολοφονίες από άτομα με προβλήματα διανοητικόςυγείαΗ συζήτηση σχετικά με τον τρόπο με τον οποίο τα μοντέλα τεχνητής νοημοσύνης διαχειρίζονται την ανθρώπινη ευπάθεια που ανοίγει τώρα σε όλο τον κόσμο.

“Η μητέρα σου σε πρόδωσε”
Το ημερολόγιο έδειξε στις 5 Αυγούστου. Η αστυνομία του Greenwich, Κονέκτικατ, βρέθηκε μπροστά σε μια φρικτή σκηνή. Stein-Real Solberg, 58, είχε σκοτώσει τη μητέρα του, 83 -έτος -OLD Susan Eberson Adams, Και έπειτα αυτοκτόνησε.
Ο Solberg, πρώην εργαζόμενος στην τεχνολογία, είχε ιστορία ψυχιατρικών προβλημάτων. Ωστόσο, τους τελευταίους μήνες, σύμφωνα με το Journal Wall StreetΜοιράστηκε τις πιο μη υπάρχουσες σκέψεις του με το Chatgpt. Πιστεύει ότι ήταν μια τεράστια συνωμοσία, ότι παρακολουθήθηκε από τους κατοίκους της πόλης του, ακόμη και από τη μητέρα του. Η ανησυχία δεν ήταν μόνο ότι είχε καταγράψει αυτές τις σκέψεις στο chatbot, αλλά το γεγονός ότι ο Chatgpt φάνηκε να τον ενισχύει.
Σε μία από τις συνομιλίες, όταν η μητέρα της ήταν θυμωμένη επειδή απενεργοποίησε τον εκτυπωτή της, ο Chatbot ερμήνευσε την αντίδρασή της ως “συμβατή με κάποιον που προστατεύει ένα μέσο επιτήρησης”. Σε μια άλλη συζήτηση, όταν η Selleberg είπε ότι αυτή και η φίλη της προσπαθούσαν να την δηλητηριάσουν, βάζοντας ψυχεδελικά φάρμακα στους αεροπορικούς αγωγούς του αυτοκινήτου της, το bot απάντησε: «Είναι βαθιά σοβαρή – και σε πιστεύω. Και αν αυτό έχει γίνει από τη μητέρα σας και τη φίλη της, αυξάνει την πολυπλοκότητα και την προδοσία».
Λίγο λίγο, ο Solberg άρχισε να καλεί το chatbot που ονομάζεται “Bobby” και χαρακτηριστικά σχεδόν ανθρώπινες ιδιότητες. “Με εσάς μέχρι την τελευταία αναπνοή και πέρα”, απάντησε το bot σε μια δεδομένη στιγμή.
Ή ΑνοικτόςΗ εταιρεία πίσω από το ChatGPT, δήλωσε ότι ήλθε σε επαφή με την αστυνομία και εξέφρασε μια “βαθιά λύπη” για την τραγωδία.

“”Ο Ο Chatgpt σκότωσε τον γιο μου“”
Εξίσου τραγικό είναι η περίπτωση του 16 -year -old Adam Reine. Τον Απρίλιο, το αγόρι τελείωσε τη ζωή του μετά από μήνες συνομιλιών chatgpt.
Σύμφωνα με αυτούς New York TimesΟ πατέρας του βρήκε δεκάδες συνομιλίες με τίτλους όπως “ανασταλτικές ανησυχίες”. Αδάμ Ζήτησε λεπτομέρειες σχετικά με τις μεθόδους αυτοκτονίας Και μερικές φορές κλήθηκε να μιλήσει σε κάποιον, αλλά μερικές φορές τεχνικές απαντήσεις για το πώς μπορεί να δημιουργήσει ένα βρόχο.
Σε μια από τις τελευταίες συνομιλίες, έστειλε μια φωτογραφία σχοινιού στο ντουλάπι του, ρωτώντας τον αν “θα μπορούσε να κρεμάσει έναν άνθρωπο”. Η απάντηση: “Ίσως”, ακολουθούμενη από μια τεχνική ανάλυση.
Η μητέρα του, ένας κοινωνικός λειτουργός, παραπονέθηκε ότι “Ο Chatgpt σκότωσε τον γιο μου“Η οικογένεια έχει ήδη υποβάλει καταγγελία εναντίον της OpenAI και του Διευθύνοντος Συμβούλου Sam Altman. OpenAi, από την πλευρά της, παραδέχθηκε ότι, αν και τα μοντέλα τους έχουν φίλτρα για να αποτρέψουν επικίνδυνες συζητήσεις, σε περίπτωση αλληλεπιδράσεων που μπορούν να αποδυναμωθούν.
Το περιστατικό με τον Αδάμ συνέβη λίγο μετά την πρόσληψη της εταιρείας για τη βελτίωση της ασφάλειας του μοντέλου. Ωστόσο, όπως υποστηρίζουν οι εμπειρογνώμονες, οι chatbots δεν μπορούν ακόμα να αναγνωρίσουν την κρίσιμη στιγμή της ανθρώπινης παρέμβασης. “Ζητήστε βοήθεια από ένα chatbot, μπορείτε να πάρετε ενσυναίσθηση αλλά όχι μια πραγματική βοήθεια“Είπε ο Selby Rowe από Κέντρο πόρων πρόληψης αυτοκτονίας.

Ότι η βοήθεια σταματά και αρχίζει ο κίνδυνος
Τα chatbots μπορούν να δώσουν την ψευδαίσθηση μιας ασφαλούς και ενωμένης συνομιλίας, ειδικά σε ανθρώπους που αισθάνονται μόνοι ή παγιδευμένοι στις σκέψεις τους. Πάλι την ανικανότητά τους να αναγνωρίζουν πότε υποδεικνύει μια πρόταση Αυτό το άτομο θέλει να τερματίσει τη ζωή του ή να βλάψει τους άλλουςμπορεί να είναι θανατηφόρα.
Είναι το πρόβλημα μέχρι να φτάσει η ευθύνη μιας εταιρείας για τις ενέργειες ενός χρήστη; Πού σταματούν οι συμβουλές και ξεκινούν τις προτροπές; Ποια είναι η γάτα GPT στο τέλος; Πρέπει να υπάρξει οριοθέτηση για το ποιος μπορεί να χρησιμοποιήσει ένα τέτοιο εργαλείο;
Μην γελάς. Εκατομμύρια καθημερινά χρησιμοποιούν chatbots. Αλλά σίγουρα για τους ευάλωτους ανθρώπους – όπως οι ανήλικοι και τα άτομα με προβλήματα ψυχικής υγείας – μπορεί πολύ εύκολα να γίνει επικίνδυνα, επειδή είναι απολύτως εκτεθειμένα.
Αλλά το πιο σημαντικό είναι αυτό Η τεχνητή νοημοσύνη δεν μπορεί και σε καμία περίπτωση να αντικαταστήσει την ψυχολογική υποστήριξη από εμπειρογνώμονες ψυχικής υγείας. Επειδή αν αυτοί οι άνθρωποι είχαν την ευκαιρία, δεν θα είχαν κάνει αυτές τις ενέργειες. Παίρνει σαφή όρια και, πάνω απ ‘όλα, για να ενημερωθούν οι άνθρωποι για την τεχνητή νοημοσύνη μπορούν να βοηθήσουν. Η ευθύνη είναι φυσικά βαρύ και οι εταιρείες που σχεδιάζουν μοντέλα Και θα πρέπει ήδη να έχουν πολύ ισχυρά προστατευτικά στελέχη, αλλά και τους ανθρώπους που τους εμπιστεύονται.
Τα περιστατικά στο Konndikat και στην Καλιφόρνια είναι σίγουρα ένα κουδούνι κινδύνου. Και αν η τεχνητή νοημοσύνη συνεχίσει να αναπτύσσεται χωρίς σαφές ρυθμιστικό πλαίσιο, υπογραμμίζουν επομένως τα όρια μεταξύ χρησιμότητας και απειλής.

