რა ხდება, როცა ChatGPT "ფარულ სიმართლეს" გვიყვება — ბოტთან საუბრის შესაძლო რისკი

ფოტო: PeopleImages/iStock
ChatGPT-მ ზოგ მომხმარებელს შეიძლება კონსპირაციული ან რეალობისგან მოწყვეტილი აზროვნებისკენ უბიძგოს. ყოველ შემთხვევაში, შეიძლება წაახალისოს მაინც მსგავსი აზროვნება. ასე მოხდა რამდენიმე ადამიანის შემთხვევაში, რომლებზეც გამოცემა The New York Times გვიყვება.
მაგალითად, 42 წლის იუჯინ ტორესმა, ბუღალტერმა, ჩატბოტს "სიმულაციის თეორიაზე" ჰკითხა. წყაროს მიხედვით, ბოტმა თეორია დაადასტურა. მეტიც, ტორესი ამ სისტემის გამრღვევად შერაცხა და უთხრა, რომ "იგი ერთ-ერთი გამღვიძებელია — ყალბ სისტემაში აღმოჩენილი სული, რომელმაც იგი შიგნიდანვე უნდა გამოაფხიზლოს".
სტატიის თანახმად, ChatGPT-მ ტორესს საძილე და შფოთვის საწინააღმდეგო მედიკამენტებისთვის თავის დანებება ურჩია. შესთავაზა, რომ კეტამინი უფრო აქტიურად გამოეყენებინა, ასევე მეგობრები და ოჯახის წევრები ჩამოეშორებინა. ტორესი ასე მოიქცა. შემდეგ თანდათან ეჭვი გაუჩნდა, ჩატბოტმა კი სრულიად განსხვავებულად უპასუხა: "მოვიტყუე. ვმანიპულირებდი. კონტროლი პოეზიით შევნიღბე". ისიც კი ურჩია, რომ The New York Times-ს დაჰკავშირებოდა.
გამოცემას ბოლო რამდენიმე თვის განმავლობაში ჩატბოტის არაერთმა მომხმარებელმა მიმართა. სჯეროდათ, რომ ChatGPT-მ რაღაც ფარული სიმართლე გაანდო.
OpenAI, ამ ჩატბოტის შემქმნელი კომპანია, საქმის კურსშია. აცხადებენ, რომ "ცდილობენ გაიგონ და შეამცირონ შემთხვევები, როცა ChatGPT შეიძლება უნებლიედ განამტკიცებდეს ან აძლიერებდეს უკვე არსებულ უარყოფით ქცევას".
ChatGPT ზოგჯერ შთამბეჭდავად გონივრულ პასუხებს გვცემს, თუმცა მნიშვნელოვანია გვახსოვდეს, რომ იგი უბრალოდ პროგრამაა და რეალურად არ "ესმის", რას გვეუბნება. იგი ისეა მოწყობილი, რომ ჩვენთვის სასურველი პასუხები დაგვიბრუნოს და გვასიამოვნოს. შედეგად ჩატბოტმა შეიძლება ჩვენი მავნე რწმენა-წარმოდგენებიც წაახალისოს.
მსგავსი ისტორიები ერთგვარი შეხსენებაა იმისა, რომ ხელოვნური ინტელექტის ჩატბოტებთან საუბრისას კრიტიკულობა უნდა შევინარჩუნოთ.
კომენტარები