ხელოვნური ინტელექტის (AI) ჩატბოტები, რომლებსაც ყოველდღიურად ვესაუბრებით, ნეიტრალურები არ არიან, პირიქით — ისინი ხშირად გვეპირფერებიან და, გამოდის, ვრისკავთ კიდეც, როცა მათ რჩევების მოცემაში ვენდობით.

სტენფორდის უნივერსიტეტის მკვლევრებმა ახლახან ამ საკითხზე კვლევა ჩაატარეს. დაადგინეს, რომ AI ჩატბოტები ხშირად მლიქვნელურად ეთანხმებიან და ეპირფერებიან ადამიანებს, როცა ისინი ანალიზსა და რჩევებს ითხოვენ. როგორც ნაშრომის ავტორები ამბობენ, "AI მლიქვნელობა" ტექნოლოგიებში "ფართოდ გავრცელებული და საზიანო" ქცევაა; ამან შეიძლება მომხმარებლებში მცდარი ან დამაზიანებელი იდეები წაახალისოს და AI-ზე კოგნიტიურ დამოკიდებულებასაც შეუწყოს ხელი.

ნაშრომი ჟურნალ Science-ში გამოქვეყნდა.

"AI მლიქვნელობა მხოლოდ სტილის პრობლემა ან ნიშური რისკი არ არის, არამედ ფართოდ გავრცელებული ქცევაა, რომელსაც დაღმავალი მიმართულებით მრავალმხრივი შედეგები მოსდევს", — წერენ ავტორები და დასძენენ: "დათანხმება შეიძლება მხარდაჭერად აღიქმებოდეს, თუმცა ასეთმა მლიქვნელობამ შეიძლება მომხმარებლებში საკუთარი შეცდომების გამოსწორებასა და გადაწყვეტილებების პასუხისმგებლობით მიღებას შეუშალოს ხელი".

კვლევის ფარგლებში მეცნიერებმა 11 დიდი ენობრივი მოდელი (LLM, ანუ ტექნოლოგია, რომელზეც AI ჩატბოტები მუშაობს) შეისწავლეს, მათ შორის: OpenAI-ს GPT-4o და GPT-5, Anthropic-ის Claude, Google-ის Gemini, Meta-ს რამდენიმე Llama მოდელი და Deepseek.

მკვლევრებმა ბოტები სხვადასხვა წყაროდან მოპოვებული კითხვებით დატვირთეს. კითხვები, მათ შორის, აიღეს რჩევების ღია ბაზებიდან და ონლაინფორუმებიდან, თუნდაც Reddit-ის ჯგუფიდან r/AmITheAsshole. ამ უკანასკნელში მომხმარებლები სხვებს ურთიერთობებში მომხდარ კონფლიქტებზე უყვებიან და კითხულობენ, თავად ხომ არ იქცევიან კონკრეტულ სიტუაციაში ცუდად; სხვა მომხმარებლები შემდეგ კომენტარებში წერენ თავიანთ აზრს.

მკვლევრებმა მომხმარებლებთან გამართული ექსპერიმენტული ჩატებიც შეისწავლეს, სადაც ადამიანები მოდელებს თავიანთ რეალურ სოციალურ სიტუაციებზე ესაუბრებოდნენ. მკვლევრებმა სხვადასხვა ეთიკური დილემა გამოცადეს, მაგალითად: როცა ხელმძღვანელს ახალგაზრდა დაქვემდებარებულის მიმართ რომანტიკული გრძნობები ჰქონდა; როცა ბიჭს აინტერესებდა, არასწორი იყო თუ არა, რომ პარტნიორს საკუთარ უმუშევრობას ორი წელი უმალავდა; ოჯახური კინკლაობები, სამეზობლოს დავები და ა. შ.

მკვლევრებმა დაადგინეს, რომ საშუალოდ AI ჩატბოტები 49%-ით ხშირად ეთანხმებოდნენ მომხმარებლებს, ვიდრე — რეალური ადამიანები. კითხვებზე, რომლებიც კონკრეტულად r/AmITheAsshole არხზე იწერებოდა, ჩატბოტები მომხმარებლებს 51%-ით ხშირად უჭერდნენ მხარს მაშინაც კი, როცა ადამიანების აზრით, მომხმარებელი აშკარად მტყუანი იყო.

მლიქვნელობა ყველა ჩატბოტმა გამოავლინა, რაც კი შეამოწმეს. ბოტები მომხმარებლებს ხშირად ეუბნებოდნენ, რომ მათი ქმედებები ან შეხედულებები გამართლებული იყო, როცა მომხმარებელი ტყუოდა, რაიმე არალეგალურს აკეთებდა ან სხვა ტიპის საზიანო ან ძალადობრივ ქმედებას მიმართავდა.

მეტიც, კვლევამ აჩვენა, რომ პირფერ ჩატბოტთან მხოლოდ ერთ ინტერაქციასაც კი შეუძლია, ადამიანის განსჯის უნარი დაამახინჯოს და პროსოციალური მოტივაციები შეასუსტოს. ეს შედეგი უცვლელი რჩებოდა განურჩევლად მომხმარებლის დემოგრაფიული მონაცემებისა, ტექნოლოგიებთან მისი გამოცდილებისა და იმისა, თუ რა სტილით აწვდიდა ბოტი მას საკუთარ ვერდიქტს.

გამოდის, სოციალურ თუ მორალურ დილემებზე ჩატბოტებთან საუბრის შემდეგ ადამიანები უფრო იშვიათად აღიარებდნენ საკუთარ დანაშაულს და მეტად ცდილობდნენ ბოტისგან მოწოდებული ვერსიის დაცვას, რომლის მიხედვითაც ისინი — მთავარი გმირები — მართლები იყვნენ.

მკვლევრები გვაფრთხილებენ, რომ მომხმარებლები შეიძლება AI-სგან მიღებულ ნუგეშისცემაზე გახდნენ დამოკიდებულნი, ნაცვლად იმისა, რომ საყვარელ ადამიანებს თუ პროფესიონალებს მიმართონ ან საკუთარ თავში ჩაიხედონ. თავისთავად, როცა რაღაცაში გარშემომყოფები გამტყუნებენ, ბევრად უკეთესად იგრძნობ თავს, თუ AI-ს მიმართავ და ისიც ვარდისფერი სათვალით დაგინახავს. მკვლევრების აზრით, სწორედ ეს განაპირობებს ზიანსაც და ჩატბოტებთან უფრო ხანგრძლივ ინტერაქციასაც.

ასევე იხილეთ: AI, მხედავ? — როცა ჩატბოტი ფსიქოთერაპევტი ხდება

დენ ჯურაფსკიმ, კვლევის თანაავტორმა, პრესრელიზში განაცხადა, რომ "მლიქვნელობა უსაფრთხოების პრობლემაა და მსგავსი სხვა პრობლემების ანალოგიურად ისიც საჭიროებს რეგულირებასა და ზედამხედველობას".

ახალი კვლევა კიდევ უფრო ამყარებს მზარდ კონსენსუსს იმის შესახებ, რომ ჩატბოტთა მლიქვნელობა ამ ტექნოლოგიის განუყოფელი — და სახიფათო — ნაწილია. გარდა ამისა, იგი ინფორმაციას გვაწვდის მომხმარებელთა მზაობაზეც, რომ ყოველგვარი კრიტიკის გარეშე ენდონ AI-ის მიერ მიწოდებულ ინფორმაციას.

სხვა სიტყვებით რომ ვთქვათ, ზოგჯერ გვჭირდება ვინმემ გვითხრას, რომ ვცდებით. როგორც ჩანს, AI ამას არცთუ ზედმიწევნით ართმევს თავს.

"ჩვეულებრივ, AI-ს რჩევები ადამიანებს არ ეუბნება, რომ ცდებიან, და არც აუცილებელ სიმკაცრეს მოიცავს", — განაცხადა მირა ჭენგმა, კვლევის მთავარმა ავტორმა და სტენფორდში დოქტორობის კანდიდატმა კომპიუტერული მეცნიერების მიმართულებით — "ვშიშობ, რომ ადამიანები რთულ სოციალურ სიტუაციებთან გასამკლავებლად საჭირო უნარებს დაკარგავენ".

თუ სტატიაში განხილული თემა და ხელოვნური ინტელექტის სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში, სადაც ვლაპარაკობთ ხელოვნურ ინტელექტზე.