ხელოვნური ინტელექტის კვლევა რიგ სამეცნიერო დარგებში ძალიან მნიშვნელოვანია და მას ძალიან დიდი ყურადღება ეთმობა. ამ სფეროს ქება-დიდება საკმარისად მოიპოვება, ამიტომ მეტ კომპლიმენტს აღარ გავიღებ და ყურადღებას დავუთმობ მის გარშემო არსებულ აჟიოტაჟზე.

ბევრი ცნობილი ადამიანი, იქნება ეს ილონ მასკი თუ ჯო როგანის პოდკასტის ყოველი მეორე სტუმარი, საუბრობს AI-ის საფრთხეებზე, კერძოდ კი მომავალზე, როცა ხელოვნური ინტელექტი ადამიანზე "ჭკვიანი" იქნება.

ასეთ საუბრებში ხშირად გაჟღერებული ფრაზაა "ტექნოლოგიური სინგულარობა" ან უბრალოდ "სინგულარობა", რომელიც ეწოდება რაღაც ჰიპოთეტურ მომენტს მომავალში, როცა ტექნოლოგიური ზრდა უკონტროლო და შეუქცევადი გახდება.

რეი კურცვეილი ერთ-ერთი გამოჩენილი საჯარო ფიგურაა, რომელიც გარდაუვალ სინგულარობაზე საუბრობს, თუმცა ის ერთადერთი არაა. ირვინ ჯ. გუდი ბრიტანელი მათემატიკოსა, რომელმაც სინგულარობის ცნების პოპულარიზაცია "ინტელექტის აფეთქების" მოდელით მოახდინა.

კურცვეილი თავის 2005 წლის წიგნში The Singularity is Near, წერს რომ AI ადამიანის დონის ინტელექტს 2029 წლისთვის მიაღწევს და სინგულარობა 2040-2050 წლისთვის გარდაუვალი იქნება.

რა არის სუპერინტელექტი

ფოტო: Damien Walter

ადამიანის ინტელექტი რაღაც "ოქროს სტანდარტად" არის აღქმული, რომლის გადაჭარბებაც "სუპერინტელექტად" მოიაზრება. ბევრის შიში და იმედია, რომ შეიქმნება ხელოვნური ინტელექტი, რომელიც ზოგადი კოგნიტური შესაძლებლობებით ადამიანს დაჯაბნის.

მიუხედავად იმისა, რომ ეს იმედები ხელოვნური ინტელექტის ამჟამინდელი დახვეწის და უპრეცედენტოდ სწრაფ მოდერნიზაციას ეყრდნობა, არანაირი საფუძველი არ გვაქვს ვიფიქროთ, რომ ხელოვნურ ინტელექტს ოდესმე ადამიანის მსგავსი "ზოგადი კოგნიტური შესაძლებლობები" ექნება.

არსებობს განსხვავება ზოგად ხელოვნურ ინტელექტს (General AI) და ვიწრო ხელოვნურ ინტელექტს (Tool AI) შორის. ამჟამინდელი პროგრესი კომპიუტერულ მეცნიერებაში მხოლოდ ვიწრო ხელოვნურ ინტელექტს ეხება. სინამდვილეში შეკითხვა: "არის ან იქნება თუ არა ხელოვნური ინტელექტი ადამიანზე ჭკვიანი", სრულიად უაზროა.

სუპერინტელექტის ზოგადი განმარტებით, კალკულატორიც ადამიანზე ჭკვიანია იმიტომ, რომ ის არითმეტიკულ დაანგარიშებას უმცირესი პროცესორითაც კი ლამის მყისიერად ახერხებს, ადამიანს კი მეტი დრო სჭირდება და ბევრად შეზღუდულია. თუმცა, კალკულატორს, ისევე როგორც ნებისმიერ ხელოვნური ინტელექტის მოდელს, "ზოგადი კოგნიტური უნარები" არ აქვს.

მიუხედავად იმისა, რომ ადამიანის "აზროვნება" რაღაც გამომთვლელი მექანიზმით მუშაობს, რომელიც იღებს ინფორმაციას, ახარისხებს მას და აანალიზებს, არ გვაქვს საბუთი ვივარაუდოთ, რომ ჩვენი ინტელექტი და ხელოვნური ინტელექტი ერთნაირად მუშაობს.

მაგალითად, კომპიუტერს შეუძლია ნებისმიერი ადამიანი ჭადრაკში დაამარცხოს, თუმცა ეს არ ნიშნავს, რომ ჭადრაკის მოთამაშე ადამიანი და კომპიუტერი ერთნაირად აზროვნებენ. არავინ იცის, როგორ წარმოიქმნება ინტელექტი ჩვენს ტვინში, ან საერთოდ რა არის ბიოლოგიური ორგანიზმების ინტელექტი. იმის გამო, რომ განმარტებაც კი არ გვაქვს, შეუძლებელია მის აკურატულ მოდელირებაზე ვისაუბროთ.

კურცვეილი თავის წიგნში წერს, რომ 2029 წელს ხელოვნური ინტელექტი ტურინგის ტესტს მოატყუებს და ამით ადამიანის ინტელექტის დონეს მიაღწევს. თუმცა, ეს წინასწარმეტყველება ეყრდნობა დაშვებას, რომ ტურინგის ტესტის გავლა ადამიანის ინტელექტთან რაიმე კავშირშია.

თვითონ ტურინგი, რომელმაც ტესტი შექმნა, მიიჩნევდა, რომ შეკითხვა "ფიქრობენ თუ არა კომპიუტერები" იმდენად უაზროა, რომ განხილვასაც კი არ საჭიროებს. მაინც განვმარტოთ რა არის ტურინგის "იმიტაციის თამაში":

ტურინგის ტესტის იდეა ისაა, რომ ადამიანმა ვერ გაარჩიოს სხვა ადამიანს ელაპარაკება ის თუ გამომთვლელ მანქანას, ანუ კომპიუტერს. თუ კომპიუტერი დაარწმუნებს ტესტის ჩამტარებელს, რომ ის ადამიანია, მაშინ ის ტურინგის ტესტს გაივლის.

AI-იმ რომც შეძლოს ჩვენი მოტყუება და დაარწმუნოს მავანი, რომ ის ადამიანია, ეს არ გულისხმობს, რომ მან "ადამიანის დონის ინტელექტს" მიაღწია. ამას ტურინგიც კი არ უშვებდა. AI-იმ ტურინგის ტესტი რომ გაიაროს, ეს მხოლოდ იმას აჩვენებს, რომ აღნიშნულ AI-ს შეუძლია შეასრულოს ის ვიწრო ამოცანა, რომლისთვისაც ის შეიქმნა: მოატყუოს ტესტის ჩამტარებელი.

ცნობიერი კომპიუტერების მითი კარგად იყიდება

დროთა განმავლობაში გამოჩნდება ხოლმე სტარტპი ან ბიზნესმენი, რომელიც დიდი ემოციით საუბრობს AI-ის მომავალზე და გარდაუვალ სინგულარობაზე. საზოგადოების ფუტურისტულ განწყობებზე თამაში ამ კომპანიებისთვის მოგებიანია.

ილონ მასკი და მისი დაფუძნებული კომპანია Open Ai, გაზვიადებულ განცხადებებს აკეთებენ, როცა რეალური კვლევა და შედეგად მიღებული პროდუქტი ძალიან ჩამორჩება გაჟღერებულ ამბიციებს.

1963 წელს ირვინგ ჯონ გუდმა ივარაუდა, რომ ულტრაინტელექტუალი მანქანის შექმნა ადამიანის ბოლო გამოგონება იქნება, რადგან ეს უკანასკნელი შემდგომ თავისზე ჭკვიან ინტელექტს დაუდებს საფუძველს და რაღაც "რეკურსია" წარმოიქმნება, სადაც ჭკვიანი კომპიუტერები თავისზე ჭკვიან კომპიუტერებს ქმნიან და ასე უსასრულოდ.

საქმე ისაა, რომ ეს რეკურსიული წრე უკვე დიდი ხანია რაც არსებობს. ტექნოლოგიის გაუმჯობესებისთვის საჭირო ხელსაწყოები ჩვენ ინდივიდუალურ ტვინებში კი არა, კოლექტიურ ცოდნაში ილექება. ყოველი მომდევნო თაობა წინაზე "ჭკვიანია" იმ გაგებით, რომ მას უფრო მეტი ინფორმაცია აქვს.

სინგულარობაზე საუბრისას "გარემო ფაქტორები" იშვიათადაა გათვალისწინებული. ამაში მარტივი რამ იგულისხმება, რადგან ჯერჯერობით, როგორც აღვნიშნეთ, მხოლოდ "ვიწრო AI" არსებობს. ისევ კალკულატორის ანალოგიას რომ მივუბრუნდეთ, რაც არ უნდა დახვეწილი, ჰიპერსწრაფი კალკულატორი შევქმნათ, ის ყოველთვის შეზღუდული იქნება, რადგან დღის ბოლოს ის მაინც, უბრალოდ, კალკულატორია.

სანამ "ზოგადი ხელოვნური ინტელექტი" არ გვაქვს, იქამდე სინგულარობაზე საუბარი ნაადრევია. მეტიც, არსებული შიშები ხელოვნურ ინტელექტზე, ძირითადად, მწირი და არასწორი ინფორმაციიდან მომდინარეობს. ეს ტურინგის ტესტის მაგალითზე განვიხილეთ. ადამიანებს ხშირად არ ესმით, ან არ უნდათ ესმოდეთ, რომ მათი არგუმენტაცია სპეკუალაციებს ემყარება და წინ ჯერ კიდევ ძალიან დიდი გზაა გასავლელი.