სამეცნიერო ფანტასტიკაში ხშირად გვხვდება სიუჟეტი, რომელშიც ხელოვნური ინტელექტი ადამიანებს უპირისპირდება. HAL-9000, Skynet და GLaDOS მხოლოდ მცირე ჩამონათვალია იმ ხელოვნური ინტელექტისა, რომელიც მის შემქმნელთან კონფლიქტში შედის. ჟანრის სპეციფიკას თუ დავაკვირდებით, შეიძლება ითქვას, რომ კაცობრიობას ხელოვნური ინტელექტის "აჯანყების" შიში უკვე დიდი ხანია რაც აქვს.

და, აი, ახლა უფრო დახვეწილი დიდი ენობრივი მოდელების (LLM) გაჩენით, როგორიცაა ChatGPT, ეს შეკითხვა კიდევ უფრო აქტუალური გახდა — რა საშიშროებას შეიძლება მოიცავდეს ხელოვნური ინტელექტი?

ახალი კვლევის თანახმად, რომელსაც ხელმძღვანელობდნენ კომპიუტერული მეცნიერები ირინა გურევიჩი და ჰარიშ ტაიარ მადაბუში, ზემოთ ხსენებულ მოდელებს ჩვენი მოტყუება არ შეუძლია. მეტიც, ეს სისტემები პროგრამირებიდან გამომდინარე ძალიან შეზღუდულია და ამრიგად, დღეს არსებული ხელოვნური ინტელექტი ადამიანის კონტროლის ქვეშ რჩება.

ეს ნიშნავს, რომ ამ ეტაპზე დიდი ენობრივი მოდელების გამოყენება კაცობრიობისთვის სახიფათო არაა.

"ბევრს აქვს შიში, რომ ეს მოდელები კიდევ უფრო დაიხვეწება და რაღაც ეტაპზე უკონტროლო გახდება. საბოლოოდ, ამით ხელოვნურმა ინტელექტმა შეიძლება დამოუკიდებლად აზროვნებაც კი დაიწყოს. ჩვენმა კვლევამ აჩვენა, რომ შიში იმისა, რომ მოდელი რაღაცა სრულიად მოულოდნელ, ინოვაციურ და პოტენციურად სახიფათო რამეს გააკეთებს, არ არის მართებული", — თქვა ტაიარ მადაბუშმა.

ბოლო ორი წლის განმავლობაში, LLM შესაძლებლობა მნიშვნელოვნად გაიზარდა. დღეს ხელოვნურ ინტელექტს შეუძლია შედარებით თანმიმდევრული საუბრის წარმართვა და ზოგჯერ ეს შეიძლება იმდენად დამაჯერებელი იყოს, რომ ადამიანი ვერ მიხვდეს ვის ესაუბრება (ადამიანს თუ ხელოვნურ ინტელექტს).

ასევე: კვლევის თანახმად, ChatGPT-ის ტიურინგის ტესტის ჩაბარება შეუძლია

აქედან გამომდინარე, მკვლევრებს აინტერესებდათ, რამდენად რჩება ხელოვნური ინტელექტი თავის კოდის ფარგლებში და რამდენად შეიძლება ის ამ ყველაფერს გაცდეს.

მათ ჩაატარეს ექსპერიმენტები LLM-ის ოთხ სხვადასხვა მოდელზე. მკვლევრებმა ვერ იპოვეს რაიმე მტკიცებულება დიფერენცირებული აზროვნების შესახებ. ხელოვნურ ინტელექტს არ შეეძლო ემოქმედა პროგრამირების მიღმა.

"ეს არ ნიშნავს, რომ ხელოვნური ინტელექტი სახიფათო საერთოდ არ არის. თუმცა, ამით იმის თქვა გვინდა, რომ ამ ეტაპზე შესაბამისი რისკები მცირეა", — აღნიშნულია კვლევაში.

კვლევის ნახვა აქ შეგიძლიათ.

თუ სტატიაში განხილული თემა და ზოგადად: მეცნიერებისა და ტექნოლოგიების სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში – შემდეგი ჯგუფი.