ორშაბათს OpenAI-მ, ChatGPT-ს შემქმნელმა კომპანიამ, ჩატბოტის მომხმარებელთა ფსიქიკურ ჯანმრთელობაზე მონაცემები გამოაქვეყნა — გაგვიზიარა, რამდენი ადამიანი ესაუბრება ChatGPT-ს მენტალურ სირთულეებზე.

კომპანიის განცხადებით, ყოველკვირეულად ChatGPT-ს აქტიურ მომხმარებელთა 0.15%-ს აქვს ჩატბოტთან "საუბრები, რომლებშიც შესაძლო სუიციდური განზრახვის ან გეგმის მკაფიო ნიშნებია". ChatGPT-ს ყოველკვირეულად 800 მილიონი აქტიური მომხმარებელი ჰყავს. გამოდის, სუიციდთან დაკავშირებით ჩატბოტს კვირაში მილიონზე მეტი ადამიანი ესაუბრება.

როგორც აღმოჩნდა, მსგავსი რაოდენობის მომხმარებლებს აღენიშნებათ "ChatGPT-სადმი მომატებული ემოციური მიჯაჭვულობა"; ყოველკვირეულად ასიათასობით ადამიანი ამჟღავნებს ფსიქოზის ან მანიის ნიშნებს ჩატბოტთან საუბრისას. OpenAI ასევე აცხადებს, რომ ChatGPT-სთან ამ ტიპის საუბრები "უკიდურესად იშვიათია" და მასშტაბიც რთული გასაზომია. ამავდროულად, კომპანიის შეფასებით, მსგავს პრობლემებს ყოველკვირეულად ასიათასობით ადამიანი აწყდება.

ეს ინფორმაცია OpenAI-ს უფრო ფართო განცხადების ფარგლებში გაავრცელა. კომპანია ბოლო პერიოდში მოდელების დახვეწას ცდილობდა, რათა ჩატბოტს ფსიქიკური პრობლემების მქონე მომხმარებლებისთვის მეტად უსაფრთხო და ადეკვატური პასუხები გაეცა.

კომპანია ირწმუნება, რომ ბოლოს ChatGPT-ს გასაუმჯობესებლად ფსიქიკური ჯანმრთელობის 170-ზე მეტ ექსპერტთან გაიარეს კონსულტაცია. OpenAI-ს განცხადებით, სპეციალისტები შეთანხმდნენ, რომ ჩატბოტის უახლესი ვერსია "წინებთან შედარებით მეტად ადეკვატურ და თანმიმდევრულ პასუხებს იძლევა".

ცნობისთვის, ბოლო თვეებში არაერთ შემთხვევაზე შევიტყვეთ, როცა ფსიქიკური პრობლემები AI ჩატბოტებთან ინტერაქციამ გაამძაფრა. მეცნიერებმა ისიც შენიშნეს, რომ ზოგიერთ მომხმარებელში ჩატბოტებმა შეიძლება ბოდვითი მდგომარეობის განვითარებასაც შეუწყოს ხელი. ეს შეიძლება საზიანო რწმენების განმტკიცებით მოხდეს, რასაც ჩატბოტების მლიქვნელური ქცევა განაპირობებს.

ასევე იხილეთ: AI ჩატბოტები ფსიქიკურ ჯანმრთელობას საფრთხეს უქმნის — სპეციალისტთა შეფასება

ChatGPT-ში ფსიქიკურ ჯანმრთელობასთან დაკავშირებული ხარვეზების მოგვარება კომპანიისთვის არსებით გამოწვევად იქცა. OpenAI-ს 16 წლის მოზარდის თვითმკვლელობის გამო უჩივიან, რომელიც სუიციდურ აზრებზე ჩატბოტს კვირების განმავლობაში ელაპარაკებოდა სიკვდილამდე. კალიფორნიისა და დელავერის შტატების გენერალურმა პროკურორებმა (მათ შეუძლიათ კომპანიის დაგეგმილი რესტრუქტურიზაცია შეაჩერონ) OpenAI გააფრთხილეს, რომ ჩატბოტის ახალგაზრდა მომხმარებლები უნდა დაიცვას.

ასევე იხილეთ: ChatGPT-სთან აქტიური საუბრების შემდეგ მოზარდმა თავი მოიკლა — ოჯახი OpenAI-ს უჩივის

ოქტომბრის დასაწყისში სემ ალტმანმა, OpenAI-ს აღმასრულებელმა დირექტორმა, X-ზე დაწერა, რომ ChatGPT-ში "ფსიქიკურ ჯანმრთელობასთან დაკავშირებული სერიოზული პრობლემები შეამცირეს". მეორე მხრივ, მას დეტალები არ დაუკონკრეტებია. ორშაბათს გაზიარებული მონაცემები, როგორც ჩანს, ამ მტკიცების დასტურია, თუმცა განცხადებიდან პრობლემის დიდ მასშტაბზეც გავიგეთ. ალტმანმა ცოტა ხნის წინ ისიც განაცხადა, რომ შეზღუდვების ნაწილი მოიხსნება და მალე ChatGPT-ში ეროტიკული შიგთავსიც იქნება ნებადართული.

იხილეთ: ChatGPT-ს დეკემბრიდან შეიძლება ეროტიკული შიგთავსი დაემატოს

ორშაბათს გაკეთებულ განცხადებაში OpenAI ამტკიცებს, რომ GPT-5ის განახლებული ვერსია ფსიქიკურ ჯანმრთელობასთან დაკავშირებულ საკითხებზე 65%-ით ხშირად გვცემს "შესაფერის პასუხებს", ვიდრე წინა ვერსია. სუიციდთან დაკავშირებული დიალოგების შემოწმებისას დაადგინეს, რომ განახლებული ვერსია 91%-ით შეესაბამება კომპანიის მიერ დადგენილ სტანდარტებს, როცა წინა ვერსიის შემთხვევაში ეს მაჩვენებელი 77% იყო.

კომპანია იმასაც აცხადებს, რომ GPT-5 მოდელი უსაფრთხოების წესებს ხანგრძლივი საუბრების დროსაც უკეთესად იცავს. თვეების წინ OpenAI-მ აღნიშნა, რომ გრძელი დიალოგების დროს ჩატბოტის უსაფრთხოება მცირდებოდა.

გარდა ამისა, OpenAI შესაბამისი სისტემის დანერგვასაც გეგმავს, რომლითაც ChatGPT-ს მომხმარებლებში ფსიქიკურ პრობლემებს შეაფასებენ. კომპანიის განცხადებით, AI მოდელების უსაფრთხოების ტესტირებისას გაითვალისწინებენ ემოციური დამოკიდებულებისა და ფსიქიკური ჯანმრთელობის კრიტიკულ (სუიციდურის გარდა) სიტუაციებსაც.

ცნობისთვის, კომპანიამ ცოტა ხნის წინ მშობელთა კონტროლიც გამოუშვა — მშობლებს შეეძლებათ, ბავშვის მხრიდან ChatGPT-ს მოხმარება აკონტროლონ. OpenAI ასაკის პროგნოზირების სისტემასაც ქმნის, რომელიც მომხმარებლებიდან ბავშვებს ავტომატურად ამოიცნობს და მათ შეუსაბამო შიგთავსისგან დაიცავს.

იხილეთ: ChatGPT მოზარდებისთვის ახალი წესებით იმუშავებს — ჩატბოტს შეზღუდვები ემატება

ჯერჯერობით რთული სათქმელია, რამდენად შეამცირებს კომპანიის ძალისხმევა ფსიქიკურ ჯანმრთელობასთან დაკავშირებულ რისკებს. GPT-5 წინა მოდელებზე უსაფრთხო ჩანს, თუმცა იშვიათად მაინც იძლევა "არასასურველ" პასუხებს, როგორც ამას OpenAI უწოდებს. ისიც გასათვალისწინებელია, რომ კომპანიის ძველი და ნაკლებად უსაფრთხო მოდელები, მათ შორის GPT-4o, ფასიანი მომხმარებლებისთვის ჯერაც ხელმისაწვდომია.

AI ჩატბოტებთან საუბრის რისკებზე უფრო ვრცლად ამ ბლოგიდან გაიგებთ.

თუ სტატიაში განხილული თემა და ხელოვნური ინტელექტის სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში, სადაც ვლაპარაკობთ ხელოვნურ ინტელექტზე.