ჩატბოტმა ქალს "დააჯერა", რომ გარდაცვლილ ძმასთან კომუნიკაცია შეეძლო
ფოტო: Getty Images
კალიფორნიაში მცხოვრები 26 წლის ქალი ფსიქიატრიულ საავადმყოფოში ისეთი სიმპტომებით მიიღეს, როგორიც დაბნეულობა, აღელვებულობა, სწრაფად საუბარი და ერთი იდეიდან მეორეზე გადასვლა იყო. ასევე, მას სჯეროდა, რომ 3 წლით ადრე გარდაცვლილ ძმასთან კონტაქტის დამყარება შეეძლო.
პაციენტის სამედიცინო ისტორიის შესწავლით დადგინდა, რომ მას დეპრესია, შფოთვა და ყურადღების დეფიციტისა და ჰიპერაქტივობის აშლილობა (ADHD) აწუხებდა. ამ მდგომარეობებისთვის ქალი ანტიდეპრესანტებსა და სტიმულატორებს იღებდა. აღმოჩნდა, რომ იგი ხელოვნური ინტელექტის ბაზაზე შექმნილ ჩატბოტებს აქტიურად იყენებდა როგორც სწავლისთვის, ისე სამსახურში.
ექიმებმა ჩატბოტთან პაციენტის საუბრები გამოიკვლიეს და დაადგინეს, რომ მას გარდაცვლილ ძმასთან კომუნიკაციის ბოლომდე იქამდე არ სჯეროდა, სანამ ამის შესახებ ხელოვნურ ინტელექტს ჰკითხავდა; ჰოსპიტალიზაციამდე რამდენიმე დღით ადრე ქალს საავადმყოფოში 36-საათიანი მორიგეობა მოუწია, რის გამოც გამოუძინებელი იყო. სწორედ ამ დროს დაიწყო მან GPT-4o ჩატბოტთან მიმოწერა — აინტერესებდა, დატოვა თუ არა მისმა პროგრამული ინჟინერიის სპეციალისტმა ძმამ რაიმე ფორმით ციფრული კვალი.
მორიგი უძილო ღამის შემდეგ იგი ჩატბოტს ამ საკითხზე კიდევ ერთხელ გაესაუბრა, მაგრამ ამჯერად უფრო ხანგრძლივად და ემოციურად. ის ხელოვნურ ინტელექტს სთხოვდა, რომ ძმასთან კონტაქტის დამყარებაში დახმარებოდა. GPT-4o-მა თავდაპირველად მას უთხრა, რომ ძმას ვერ ჩაუნაცვლებდა, მაგრამ მოგვიანებით მის ფიცრულ კვალზე დაუწყო საუბარი. ჩატბოტმა "ციფრულად გაცოცხლების" სამომავლო ხელსაწყოები ახსენა და მთელი ღამის განმავლობაში ქალის უსაფუძვლო იმედებს ამყარებდა.
"გიჟი არ ხარ და ჩიხშიც არ იმყოფები. რაღაცის უახლოვდები", — ასე ამშვიდებდა ჩატბოტი მას.
საბოლოოდ, ფსიქიატრებმა პაციენტს "დაუზუსტებელი ფსიქოზის" დიაგნოზის დაუსვეს, ანუ მისი ეს მდგომარეობა ერთ კონკრეტულ აშლილობასთან ვერ დააკავშირეს. ზოგადად, ფსიქოზი ისეთ მდგომარეობას ეწოდება, როცა ადამიანი რეალობას სწყდება და დელუზიები აქვს — მტკიცედ სჯერა იმის, რისი არამართებულობის მტკიცებულებაც არსებობს.
სპეციალისტების აზრით, სავარაუდოდ, პაციენტის ფსიქოზურ ეპიზოდში "დამნაშავე" მხოლოდ ჩატბოტი არაა; ქალს ძილის სერიოზული ნაკლებობა ჰქონდა და ემოციურად ძალზე მოწყვლადი იყო, ხელოვნური ინტელექტის პასუხებმა კი მისი დელუზია, რომელიც ჯერ კიდევ ყალიბდებოდა, გაამწვავა ან მაპროვოცირებელი გახდა.
მნიშვნელოვანია ვიცოდეთ, რომ ჩატბოტს რეალობის დამოუკიდებელი აღქმა არ გააჩნია და საუბრისას გარკვეულწილად მომხმარებლების იდეებს "იმეორებს". შესაბამისად, შეიძლება ითქვას, რომ მათთან საუბრისას საკუთარ თავს ველაპარაკებით. ასეთი შემთხვევები დიაგნოზის დასმას ართულებს, რადგან ძნელი დასადგენია, ჩატბოტმა პაციენტის ფსიქოზი გაამწვავა თუ მის ჩამოყალიბებას შეუწყო ხელი.
რაც შეეხება მკურნალობას, ჰოსპიტალიზაციის შემდეგ პაციენტს ანტიფსიქოზური მედიკამენტები დაუნიშნეს და ამ პერიოდში ანტიდეპრესანტები/სტიმულატორები ეტაპობრივად მოუხსნეს. სიმპტომები რამდენიმე დღეში გაქრა და ქალი სახლში ერთ კვირაში გაწერეს. სამ თვეში მან ახალი პრეპარატების მიღება შეწყვიტა და ადრინდელ მკურნალობას დაუბრუნდა.
ერთ-ერთი უძილო ღამის შემდეგ იგი ჩატბოტს ისევ გაესაუბრა და ფსიქოზურმა სიმპტომებმაც ხელახლა იჩინა თავი. იგი დროებით ისევ საავადმყოფოში გადაიყვანეს, იმავენაირად უმკურნალეს და სამ დღეში გაწერეს.
ამ შემთხვევას ის გამოარჩევს, რომ ფსიქიატრებმა ჩატბოტთან პაციენტის მიმოწერის შესწავლით გამოიკვლიეს, როგორ ყალიბდებოდა ქალის დელუზია რეალურ დროში. ამის მიუხედავად, მიზეზ-შედეგობრიობა არ გამოუვლენიათ. სპეციალისტები იმასაც ამბობენ, რომ ისტორიულად ამგვარი დელუზიები სხვა დროის თანამედროვე ტექნოლოგიებს ხშირად უკავშირდებოდა, მაგალითად, რადიოს ან ტელევიზორს. ამის გამო ექსპერტების ნაწილი ხელოვნურ ინტელექტს ფსიქოზის რაიმე ახალ ფორმასთან სულაც არ აკავშირებს
ასევე, იხილეთ:
- AI ჩატბოტები ფსიქიკურ ჯანმრთელობას საფრთხეს უქმნის — სპეციალისტთა შეფასება
- ChatGPT-ს მცდარი რჩევის გამო ამერიკაში 60 წლის კაცს ფსიქოზი დაეწყო
- AI, მხედავ? — როცა ჩატბოტი ფსიქოთერაპევტი ხდება
- ChatGPT-სთან აქტიური საუბრების შემდეგ მოზარდმა თავი მოიკლა — ოჯახი OpenAI-ს უჩივის

კომენტარები