კოგნიტიური ილუზია — რატომ არ შეუძლია ხელოვნურ ინტელექტს ადამიანის მსგავსად ფიქრი
ფოტო: Linkedin
ფსიქოლოგები ხშირად კამათობენ, შეიძლება თუ არა ადამიანის გონების ახსნა ერთიანი თეორიის გამოყენებით. ზოგს მიაჩნია, რომ ადამიანის გონების თითოეული ასპექტი, მაგალითად, კონცენტრაცია და მეხსიერება, ცალ-ცალკე უნდა შევისწავლოთ.
და, აი, ახლა ხელოვნური ინტელექტის მოდელები გამოჩნდა, რომლებიც საკითხს ახლებურად გვაჩვენებს.
2025 წლის ივლისში, ჟურნალ Nature-ში გამოქვეყნდა რევოლუციური კვლევა, რომელშიც წარმოდგენილი იყო ხელოვნური ინტელექტის მოდელი სახელწოდებით "კენტავრი". მოდელის თანახმად, ის 160 დავალების შემთხვევაში ზუსტად ახდენდა ადამიანის კოგნიტიური ქცევის სიმულირებას. ესენი იყო: გადაწყვეტილების მიღება, აღსრულება და სხვა.
ამან დიდი ყურადღება მიიქცია. ბევრმა ჩათვალა, რომ ხელოვნურ ინტელექტს ადამიანის გონების ყოვლისმომცველი სიმულაციაც შეუძლია. მეორე მხრივ, National Science Open-ში გამოქვეყნებულმა ბოლო კვლევამ კენტავრის მოდელის შესახებ მნიშვნელოვანი ეჭვები გააჩინა.
ჟეჟიანგის უნივერსიტეტის კვლევითი ჯგუფი აღნიშნავს, რომ კენტავრის მიერ ადამიანის კოგნიტიური უნარების სიმულირება რეალურად არ მომხდარა. მკვლევრების თქმით, ალგორითმი ამას მექანიკურად აკეთებდა — ეს უბრალოდ სწავლების დროს მიღებული ნიმუშების საფუძველზე ხდებოდა.
მკვლევრებმა კენტავრის ტესტირების სცენარები შეცვალეს. მაგალითად, ალგორითმს სთხოვეს, ყოველთვის შეერჩია ვარიანტი A. მიუხედავად ამისა, კენტავრი კვლავ არჩევდა სწორ პასუხებს ორიგინალური კითხვების მონაცემთა ბაზიდან. ამან აჩვენა, რომ მოდელი პასუხებს კითხვის არსის მიხედვით არ იღებდა, არამედ ეყრდნობოდა სტატისტიკურ ნიმუშებს. ეს ჰგავს სტუდენტს, რომელიც მაღალ ქულებს იღებს ტესტირებაზე, თუმცა კითხვების არსს ვერ ხვდება — მას უბრალოდ სტატისტიკა აქვს და სწორ პასუხებამდე ასე მიდის.
კვლევა გვახსენებს, რომ დიდი ენის მოდელების შესაძლებლობების შეფასებისას საჭიროა განსაკუთრებული სიფრთხილე. დიდი ენობრივი მოდელების "შავი ყუთის" ბუნება ზოგჯერ პრობლემებს იწვევს. ეს შეიძლება იყოს "ჰალუცინაციები" და ინფორმაციის არასწორი ინტერპრეტაცია. მხოლოდ ზუსტი და მრავალმხრივი შეფასებებით შეგვიძლია გავარკვიოთ, აქვს თუ არა მოდელს რეალურად კონკრეტული პროფესიული უნარები.
მიუხედავად იმისა, რომ კენტავრი კოგნიტიური შესაძლებლობების სიმულირებისთვისაა შექმნილი, მისი ყველაზე მნიშვნელოვანი ხარვეზი სწორედ ენის გაგებაშია — კერძოდ, კითხვების ნამდვილი მნიშვნელობის აღქმასა და მათზე რეაგირებაში. კვლევამ ასევე აჩვენა, რომ ენის რეალურად გაგება შეიძლება იყოს ყველაზე კრიტიკული ტექნოლოგიური დაბრკოლება.
მკვლევრები აღნიშნავენ, რომ ხელოვნურ ინტელექტს ადამიანის მსგავსად ფიქრი ჯერ არ შეუძლია. მისი ტექსტიდან თუ ქცევიდან გამომდინარე შეიძლება გვეგონოს, რომ ის გვგავს, მაგრამ რეალურად ეს კოგნიტიური ილუზიაა. მეორე მხრივ, ხელოვნური ინტელექტის საინტერესო მხარე სწორედ ეს არის, ის ჩვენგან განსხვავდება — განსხვავდება "აზროვნების" მანერით და სადამდე მიგვიყვანს ეს ყველაფერი, ამას მხოლოდ დრო გვიჩვენებს.
ამ ეტაპზე შეგვიძლია ვთქვათ, რომ ხელოვნური ინტელექტი ადამიანური გაგებით ჯერ ვერ "იგებს", ალგორითმები სტატისტიკას ეყრდნობა.
კომენტარები