გამოავლინეს ადამიანისთვის მარტივი რამ, რაც ხელოვნურ ინტელექტს არ შეუძლია
ფოტო: Tag Hartman-Simkins / Futurism / Getty Images
ხელოვნურ ინტელექტს (AI) ბევრი რამის გაკეთება შეუძლია — იმდენად ბევრის, რომ იშვიათად ვსაუბრობთ იმაზე, რა არ შეუძლია. მეცნიერებმა ახლახან კვლევა ჩაატარეს და შენიშნეს, რომ ჩვენთვის ერთ-ერთი ყველაზე მარტივი რამ AI-ს ძალიან უჭირს: სოციალურ ქსელში იგი ჩვენსავით ღვარძლიანად ვერ კამათობს.
ნაშრომი, რომელსაც რეცენზირება ჯერ არ გაუვლია, ცოტა ხნის წინ გამოქვეყნდა. კვლევის ფარგლებში მეცნიერებმა სოციალურ ქსელებში გამოქვეყნებული პოსტები შეისწავლეს, რომლებიც დიდი ენობრივი მოდელებით (LLM-ები, ანუ ტექნოლოგია, რომელზეც AI ჩატბოტები მუშაობს) იყო შექმნილი.
მკვლევრებმა სოციალური ქსელებიდან (X, Reddit და Bluesky) LLM-ებით შექმნილი პოსტები შეაგროვეს და მათზე "ტიურინგის გამოთვლითი ტესტი" ჩაატარეს. პოსტები საჯაროდ ხელმისაწვდომი ყველა AI ჩატბოტის მიერ იყო შექმნილი, Deepseek იქნება ეს თუ Qwen.
მკვლევრებმა სპეციალური ტექნიკა გამოიყენეს, რომ ეს ტექსტები ადამიანების მიერ შექმნილებისგან გაერჩიათ, ეს კი ძალიან მარტივი აღმოჩნდა — პოსტების გამიჯვნა მცდელობათა 70-80-%-ში შეძლეს სწორად, რაც შემთხვევითი ვერ იქნება. სხვა სიტყვებით, AI-ს შექმნილი პოსტების ამოცნობა სტანდარტული სკრინინგითაც კი მარტივადაა შესაძლებელი.
კვლევის ავტორების აზრით, ეს შეიძლება იმით აიხსნას, რომ AI უბრალოდ ჰბაძავს ადამიანის ემოციურ სიღრმეს, კერძოდ იმ ღვარძლიანობას, რომელსაც "ცხელ გულზე" ვავლენთ ხოლმე. კამათში თავით გადავარდნილები ისეთი დონის "ტოქსიკურობასა" და "სენტიმენტალობას" ვიჩენთ, რომელიც მხოლოდ ადამიანს თუ ახასიათებს.
"კალიბრაციის შემდეგაც კი LLM-ის პასუხები მკაფიოდ განირჩევა ადამიანის ნაწერი ტექსტისგან, განსაკუთრებით ემოციური ტონისა და გამოხატვის კუთხით", — წერენ მკვლევრები.
საინტერესოა ისიც, რომ LLM-ის ზომა და კომპლექსურობა სულაც არ ყოფილა კავშირში იმასთან, თუ რამდენად რეალურად მიბაძავდა იგი ადამიანის ღვარძლიანობას. მაგალითად, ავტორების თქმით, უზარმაზარი Llama-3.1-70B უფრო პატარა მოდელებზე უარესად ან მათსავით ასრულებს ამ დავალებას. გამოდის, მოდელის მასშტაბის ზრდა შეიძლება სულაც არ ნიშნავდეს იმას, რომ ადამიანის მსგავსად კომუნიკაციას იგი უფრო სარწმუნოდ შეძლებს.
მიგნებები მნიშვნელოვანია, რადგან AI დღესდღეობით ძალიან ხშირად გამოიყენება სოციალურ ქსელებში სპამის დასაგენერირებლად. ამ ტენდენციას ტექნოლოგიური ბიზნესებიც უერთდებიან და კლიენტებს AI-ზე მომუშავე ბოტებს სთავაზობენ რეკლამებისთვის.
კვლევა შეიძლება მიგვანიშნებდეს, რომ ამ ეტაპზე AI-ს არც ისე კარგად შეუძლია ადამიანის იმიტირება, როგორც ზოგი შიშობს ხოლმე. ჯერჯერობით ნაკლებად სავარაუდოა, ინტერნეტში დაბალი ხარისხის AI შიგთავსის გავრცელება მალე შენელდეს.
კომენტარები