ფრანკენშტაინი AI: მატყუარა ხელოვნური ინტელექტი და ეთიკური დილემები
"თუკი ხელოვნური ინტელექტი შეძლებს, შეავსოს ადამიანთა მოლაპარაკებები და შეაჩეროს ის, რაც ხდება უკრაინაში, მაშინ რატომაც არა?"
მოტყუების უნარი კოგნიტიური განვითარების ნიშანსვეტია, რადგან ის მოითხოვს, გესმოდეთ, როგორ აზროვნებენ და მოქმედებენ სხვები. ეს უნარი, შეზღუდული დოზით, წარმოდგენილია ახალ ხელოვნური ინტელექტის სისტემა Cicero-ში, რომელიც შექმნეს Diplomacy-ის სათამაშოდ.
Diplomacy არის თამაში, რომელშიც მონაწილეები აწარმოებენ მოლაპარაკებებს, ქმნიან ალიანსებს, აგროვებენ ინფორმაციას და ზოგჯერ თაღლითობენ კიდეც. Cicero კომპანია Meta-მ განავითარა და სახელი ცნობილი რომაელი ორატორის მიხედვით შეურჩია. Cicero-მ თავისი ხელოვნური ინტელექტი ადამიან მოთამაშეებს დაუპირისპირა და, რამდენად გასაკვირიც უნდა იყოს, უმრავლესობას აჯობა კიდეც.
ასევე იხილეთ: ხელოვნურმა ინტელექტმა ადამიანი კიდევ ერთ სამაგიდო თამაშში დაჯაბნა — როგორ
თამაში Diplomacy განიხილება, როგორც რაღაც გრანდიოზული გამოწვევა AI-სთვის, რადგან სტრატეგიის გარდა, მოთამაშეებს უნდა შეეძლოთ სხვების მოტივაციის გაგება, თანამშრომლობა, კონკურენცია, გარისკვა და ღალატი. ეს ყველაფერი იმას ნიშნავს, რომ ჭადრაკისა და გოსგან განსხვავებით, თანამოთამაშეებთან კომუნიკაცია მნიშვნელოვანია. მაშასადამე, Cicero აერთიანებს ტრადიციული თამაშებისთვის დამახასიათებელ სტრატეგიულ მსჯელობას ბუნებრივი ენის დამუშავებასთან. თამაშის მიმდინარეობისას AI ცდილობს, გამოიცნოს, როგორ მოიქცევიან სხვები მოლაპარაკებებში. შემდეგ, სათანადოდ ფორმულირებული შეტყობინებების გენერირებით, ის არწმუნებს ან აიძულებს სხვა მოთამაშეებს, გახდნენ მისი პარტნიორი ან დაუთმონ, რათა მან მიზნის მიღწევა შეძლოს.
ანონიმურ ონლაინ ლიგაში 82 ადამიანთან 40 თამაშის შემდეგ, Cicero მოხვდა მონაწილეთა ტოპ 10%-ში, რომლებიც თამაშობენ ერთზე მეტ თამაშს. რა თქმა უნდა, იყო გარკვეული ხარვეზებიც: Cicero ხანდახან აბნევდა მონაწილეებს ურთიერთგამომრიცხავი შეტყობინებებით. თუმცა, თამაშის განმავლობაში, მხოლოდ ერთმა მონაწილემ იეჭვა, რომ იგი შეიძლებოდა, ბოტი ყოფილიყო.
შექმნა ხელოვნური ინტელექტისა, რომელსაც თამაშებში ადამიანის მსგავსად მოქმედება შეუძლია, ერთი მხრივ, გვიხსნის გზას AI-სა და ადამიანს შორის უფრო დახვეწილი ურთიერთქმედებისა და განსაცვიფრებელი პროგრესისკენ, თუმცა, მეორე მხრივ, ბადებს უამრავ ეთიკურ პრობლემას.
გასულ წელს, ევროკავშირმა შეუკვეთა კვლევა დიპლომატიაში ხელოვნური ინტელექტის გამოყენებისა და გეოპოლიტიკაზე მისი სავარაუდო გავლენის შესახებ. "ჩვენ, ადამიანებს, ყოველთვის არ გამოგვდის კონფლიქტების გადაჭრა", — ამბობს ჰუმა შაჰი, AI-ის ეთიკოსი დიდი ბრიტანეთის კოვენტრის უნივერსიტეტიდან. "თუკი ხელოვნური ინტელექტი შეძლებს, შეავსოს ადამიანთა მოლაპარაკებები და შეაჩეროს ის, რაც ხდება უკრაინაში, მაშინ რატომაც არა?"
პროფესორი დევიდ ლესლი, ხელოვნური ინტელექტის ეთიკოსი დედოფალ მერის უნივერსიტეტში და ალან ტურინგის ინსტიტუტში (ორივე მდებარეობს ლონდონში), ახასიათებს Cicero-ს, როგორც "ტექნიკურად ძალიან კომპეტენტურ ფრანკენშტაინს": ის არის მრავალი ტექნოლოგიის შთამბეჭდავი შერწყმა, მაგრამ ასევე — ფანჯარა შემაშფოთებელი მომავლისკენ. 2018 წლის გაერთიანებული სამეფოს საპარლამენტო კომიტეტის ანგარიშში ნათქვამია, რომ ხელოვნურ ინტელექტს არასოდეს უნდა მიენიჭოს "ადამიანისთვის ზიანის მიყენების, მისი განადგურების ან მოტყუების ავტონომიური ძალაუფლება".
დევიდ ლესლის პირველ საზრუნავს ადამიანების მოტყუება წარმოადგენს — მონაწილეებს სჯეროდათ, რომ მათ ადამიანი ეთამაშებოდათ. ამან შეიძლება გზა გაუხსნას ტექნოლოგიის მხრიდან ადამიანზე მანიპულირების საშუალებებს. გარდა ამისა, ხელოვნური ინტელექტი, რომელიც აღჭურვილია ეშმაკობის უნარით, მაგრამ არ გააჩნია ფუნდამენტური მორალური ღირებულებები, როგორებიცაა: პატიოსნება, მოვალეობა, უფლებები და ვალდებულებები, — სახიფათოა.
"სისტემა აღჭურვილია მოტყუების უნარით, მაგრამ ის არ ოპერირებს ჩვენი საზოგადოების მორალურ ცხოვრებაში", — ამბობს ლესლი. "ცხადია, რომ AI სისტემა, საბაზისო დონეზე, ამორალურია."
ასევე იხილეთ: რომელი 3 თვისება უნდა ჰქონდეს ხელოვნურ ინტელექტს, რომ ის მგრძნობიარედ მივიჩნიოთ?
Cicero-ს მსგავსი ინტელექტი, მისი აზრით, უნდა გამოვიყენოთ რთული სამეცნიერო პრობლემებისთვის და არა მგრძნობიარე გეოპოლიტიკური საკითხების გადასაჭრელად.
თავად Cicero-ს შემქმნელების თქმით, AI-ის მესიჯები გაფილტრულია და, ძირითადად, "გულწრფელი და სასარგებლო" აღმოჩნდა სხვა მოთამაშეებისთვის.
ხელოვნური ინტელექტის ეთიკურობის საკითხზე დებატები, ცხადია, ამით არ დაწყებულა და არც დასრულდება. კიდევ დიდხანს იქნება ბანაკი, რომელიც AI-ში ვერანაირ საფრთხეს ხედავს, და ასევე იქნებიან მისი მოწინააღმდეგეებიც, რომლებიც უამრავ ეთიკურ დილემას წამოჭრიან. ნებისმიერ შემთხვევაში, ცხადია, რომ AI ადამიანების ინტერესებს უნდა ემსახურებოდეს და არა — პირიქით.
კომენტარები