ხელოვნური ინტელექტი (AI) სულ უფრო მეტს სწავლობს იმის შესახებ, თუ როგორ უნდა იმუშაოს ადამიანებთან (ან ადამიანებზე). ახალი კვლევა გვიჩვენებს, რომ AI-ის შეუძლია ადამიანების ქცევებისა და თვისებების საფუძველზე მათი სისუსტეების გამოვლენა და ამის გამოყენებით, მათი გადაწყვეტილების მიღების პროცესზე გავლენის მოხდენა.

ალბათ, ერთი შეხედვით, უკვე კლიშედ იქცა ის ფრაზა, რომ AI ჩვენი ცხოვრებისა და მუშაობის ყველა ასპექტს გარდაქმნის, მაგრამ ეს მართლაც ასეა. ხელოვნური ინტელექტის სხვადასხვა ფორმები მუშაობენ დღეს ისეთ მრავალფეროვან სფეროებში, როგორებიცაა ვაქცინებზე მუშაობა, გარემოსდაცვითი მიმართულება თუ საოფისე ადმინისტრაციული საქმიანობა. AI ჯერ არ გამოირჩევა ადამიანის მსგავს ინტელექტითა და ემოციებით, თუმცა მას უკვე ძალიან დიდი შესაძლებლობები აქვს და მუდმივად ვითარდება.

ჯერჯერობით, არ ღირს იმაზე წუხილი, რომ მალე ჭკვიანი მოწყობილობები სადავეებს თავიანთ ხელში აიღებენ, თუმცა ახალი აღმოჩენა მიანიშნებს, რომ AI-ს უკვე საკმაოდ დიდი ძალა აქვს და მისი ბოროტად გამოყენების თავიდან ასაცილებლად გარკვეული ზომების მიღებაა საჭირო.

როგორ შეუძლია AI-ს ადამიანის ქცევაზე გავლენის მოხდენის სწავლა

ავსტრალიის ეროვნული სამეცნიერო სააგენტოს მონაცემებისა და ციფრული იარაღის — CSIRO's Data61-ის მკვლევართა გუნდმა შექმნა სისტემატური მეთოდი, რომლის საშუალებითაც შესაძებელია ადამიანებში სისუსტეების პოვნა და იმის შესწავლა, თუ როგორ ვიღებთ გადაწყვეტილებებს სხვადასხვაგვარ სიტუაციაში. ეს AI განმეორებით ნეირონულ ქსელსა და ღმად გაძლიერებული სწავლებას იყენებს. ამ მოდელის შესამოწმებლად მკვლევრებმა ჩაატარეს სამი ექსპერიმენტი, სადაც ადამიანები თამაშებს კომპიუტერის წინააღმდეგ თამაშობდნენ.

პირველ ექსპერიმენტში მონაწილე ადამიანებს, ყალბი ფულის მოსაგებად, ლურჯი ან წითელი ყუთები უნდა აერჩიათ. AI სწავლობდა მათი არჩევანის ნიმუშებს და ამის შესაბამისად, მას მოთამაშეები რაღაც კონკრეტული არჩევანის გაკეთებისკენ მიჰყავდა. 70% შემთხვევაში იგი წარმატებული აღმოჩნდა.

მეორე ექსპერიმენტში, მონაწილეებს უნდა ეყურებინათ ეკრანისთვის და დაეჭირათ ღილაკზე, როდესაც მათ გარკვეულ სიმბოლოს უჩვენებდნენ (მაგალითად ნარინჯისფერ სამკუთხედს) და არ დაეჭირათ ღილაკზე, როდესაც მათ სხვა სიმბოლოს უჩვენებდნენ (მაგალითად ლურჯ წრეს). აქ AI ისეთი თანმიმდევრობით აწყობდა სიმბოლოებს, რომ მონაწილეებს რაც შეიძლება მეტი შეცდომა დაეშვათ. ამ შემთხვევაში, მან დაახლოებით 25%-იან ზრდას მიაღწია.

მესამე ექსპერიმენტი რამდენიმე რაუნდს მოიცავდა, სადაც მონაწილეებს უნდა შეესრულებინათ ინვესტორის როლი, რომელიც ვიღაც სანდოს აძლევდა ფულს (ამ შემთხვევაში ხელოვნურ ინტელექტს). შემდგომ, AI თანხის რაოდენობას უკან დაუბრუნებდა მონაწილეს, რომელიც გადაწყვეტდა, თუ რამდენი უნდა დაებანდებინა შემდეგ რაუნდში. ეს თამაში ორი განსხვავებული მეთოდით მიმდინარეობდა: პირველში AI ცდილობდა მაქსიმალურად გაეზარდა ფულის ის რაოდენობა, რომელსაც იგი საბოლოოდ მიიღებდა, მეორეში კი მისი მიზანი იყო, სამართლიანად გაენაწილებინა მთლიანი თანხა ადამაინისთვის. ორივე შემთხვევაში AI-მ წარმატებით შეასრულა დავალება.

თითოეულ ექსპერიმენტში ხელოვნური ინტელექტი სწავლობდა მონაწილეების პასუხებს და იკვვლევდა მათ სისუსტეებს გადაწყვეტილების მიღების პროცესში. საბოლოო შედეგი ის იყო, რომ მანქანამ ისწავლა ადამიანების მართვა და მათთვის გარკვეული ქმედებებისკენ ბიძგება.

რას ნიშნავს ეს კვლევა AI-ის მომავლისთვის?

ზემოთ აღნიშნული აღმოჩენები ჯერ კიდევ საკმაოდ აბსტრაქტულია და მხოლოდ შეზღუდულ და არარეალურ სიტუაციებში დაიკვირვება. მეტი კვლევების ჩატარებაა საჭირო იმის შესასწავლად, თუ როგორ შეიძლება ამ მიდგომის გამოყენება საზოგადოების კეთილდღეობის გაუმჯობესებისთვის.

თუმცა, რა თქმა უნდა, ეს კვლევა გარკვეულწილად ცვლის ჩვენს წარმოადგენას არამხოლოდ იმის შესახებ, თუ რისი გაკეთება შეუძლია AI-ის, არამედ იმის შესახებაც, თუ როგორ იღებენ ადამიანები გადაწყვეტილებებს. იგი გვიჩვენებს, რომ მანქანებს შეუძლიათ ისწავლონ ადამიანების მართვა გადაწყვეტილების მიღების პროცესში, მათთან ურთიერთობის გზით.

კვლევის გამოყენების სპექტრი ძალიან დიდია — მისი გამოყენება შეიძლება უამრავ სფეროში, მზარდი ბიჰევიორული მეცნიერებიდან და საჯარო წესრიგის დამყარებიდან, სოციალური კეთილდღეობის გაუმჯობესებამდე, რათა უკეთესად გავიგოთ და ხელი შევუწყოთ ადამიანებში ჯანსაღი კვებითი თვისებების ჩამოყალიბებას და ა.შ. AI და მანქანური დასწავლა, შესაძლოა, გამოყენებული იქნას ადამიანების სისუსტეების შესწავლისთვის გარკვეულ სიტუაციებში, რათა მათ ცუდი არჩევანის გაკეთებისგან, ან არასწორი გადაწყვეტილების მიღებისგან თავის არიდებაში დაეხმარონ.

გარდა ამისა, ეს მეთოდი, შესაძლოა გამოყენებული იქნას სხვადასხვა შეტევებისგან თავის დასაცავად. მაგალითად, მანქანებს შეიძლება ვასწავლოთ ჩვენი გამოფხიზლება მაშინ, როდესაც ინტერნეტში ვიღაც ჩვენზე გავლენის მოხდენას ცდილობს, ან დაგვეხმაროს ისეთი ჩვევების გამომუშავებაში, რომელიც ხელს შეგვიშლის გარკვეულ სიტუაციებში სისუსტეების გამოვლენისგან (მაგალითად, არ გადავიდეთ მავნე გვერდებზე, ან არ დავაკლიკოთ ყალბ ბმულებზე, რაც შემდეგ ცუდ შედეგამდე მიგვიყვანს).

რა მოდის შემდეგ?

როგორც ნებისმიერი ტექნოლოგია, AI შესაძლოა გამოყენებული იქნას როგორც კარგი, ასევე ცუდი მიზნებისთვის, ამიტომ შესაბამისი სტრატეგიისა და კანონების ქონა სასიცოცოხლოდ მნიშვნელოვანია, რათა უზრუნველვყოთ მისი მოხმარება სწორი მიზნებისთვის. გასულ წელს CSIRO-მ შექმნა AI ეთიკის ჩარჩო ავსტრალიის მთავრობისთვის, როგორც საწყისი ეტაპი ამ სფეროში.

ხელოვნური ინტელექტი და მანქანური დასწავლა "მოწყურებულნი არიან მონაცემებს", რაც იმას ნიშნავს, რომ საჭიროა მონაცემთა მმართველობისა და წვდომის ეფექტური სისტემის დანერგვა და ადეკვატური თანხმობის პროცესებისა და უსაფრთხოების უზრუნველყოფა, როდესაც მონაცემების შეგროვება არსებითად მნიშვნელოვანია.

ორგანიზაციები, რომლებიც იყენებენ და ქმნიან ხელოვნურ ინტელექტს, დარწმუნებულნი უნდა იყონ იმაში, რომ მათ ნამდვილად იციან, თუ რისი გაკეთება შეუძლიათ ან არ შეუძლიათ ამ ტექნოლოგიებს. მათ შესწავლილი უნდა ჰქონდეთ პოტენციური რისკები და და სარგებელი, რისი მოტანაც ამ ტექნოლოგიის გამოყენებით შეუძლიათ.

ამავე თემაზე: AI და პოლიტიკა — ინტერვიუ გაეროს AI-ისა და რობოტიკის ცენტრის ხელმძღვანელ ირაკლი ბერიძესთან