მკვლევრები ხელოვნურ ინტელექტს ხშირად გართობის სფეროში, ისეთი ამოცანების შესასრულებლად იყენებენ, როგორიცაა ხელოვნების შედევრების რეპროდუქციათა შექმნა თუ ჰარი პოტერის გამოგონილი სცენების გენერირება. მაგრამ როცა საქმე ეხება ხელოვნური ინტელექტის მიერ ადამიანთა სამსახურში აყვანის ან სასამართლო სისტემის ამოცანების შესრულებას, იგი ხშირად იჩენს რასობრივი და გენდერული ნიშნით დისკრიმინაციულ ქცევას. იგივე საფრთხე ემუქრება ხელოვნური ინტელექტის კომერციულ საქმიანობაში გამოყენებას, სადაც მან, შესაძლოა, არაეთიკური ქცევა გამოავლინოს.

სადაზღვევო ინდუსტრიაში ხელოვნურმა ინტელექტმა, შესაძლოა, სხვადასხვა მომხმარებლისთვის განსხვავებული ფასი დააწესოს. ამ ქცევას თავისი ლოგიკური ახსნა აქვს — "ოპტიმიზირებული" სისტემები ცდილობენ, უფრო მეტი სარგებლის მიღებას მომხმარებლებისგან, რომლებსაც უყვართ შოპინგი და ფულის ხარჯვა. გარკვეული სტრატეგიის არჩევისას, ხელოვნურმა ინტელექტმა შეიძლება მიიღოს ისეთი არაეთიკური გადაწყვეტილებები, რასაც მარეგულირებელი ორგანოების დიდი ჯარიმები მოყვება.

მორალურ საკითხებში სწორი მიმართულების შესამუშავებლად მკვლევართა საერთაშორისო ჯგუფმა შექმნა მათემატიკური მეთოდი, რომელიც ორგანიზაციებს დაეხმარება, გამორიცხოს ხელოვნური ინტელექტის მიერ არაეთიკური გადაწყვეტილების მიღების შანსი.

"ჩვენ მიერ შემოთავაზებული 'არაეთიკური ქცევის ოპტიმიზაციის პრინციპი' რეგულატორებს, თავსებადობის შემმოწმებელ პირებს და სხვებს დაეხმარება, გამოავლინონ პრობლემური სტრატეგიები, რომლებიც, შესაძლოა, მრავალ სხვა სტრატეგიას შორის იმალებოდეს", — ნათქვამია უორვიკის უნივერსიტეტის მათემატიკის ინსტიტურის პროფესორის, რობერტ მაკკეის განცხადებაში", — "არსებობს საფრთხე, რომ ხელოვნური ინტელექტის ოპტიმიზაციამ ძალიან ბევრი არაეთიკური სტრატეგიის გამოყენებამდე მიგვიყვანოს. მსგავს სტრატეგიათა შემოწმება დაგვეხმარება შესაძლო პრობლემების გამოვლენასა და გამოსავლის ძიებაში, რათა მსგავსი რამ აღარ განმეორდეს".

Royal Society Open Science-ის მიერ გამოქვეყნებული მათემატიკური პრინციპის აღწერაში ვკითხულობთ: "თუ ხელოვნური ინტელექტი რისკის ხარჯზე ცდილობს მაქსიმალური შემოსავლის მიღებას, მაშინ უდიდესი ალბათობა არსებობს იმისა, რომ სისტემა არაეთიკურ სტრატეგიას აირჩევს იმ შემთხვევაში, თუ სამიზნე ფუნქცია საკმარისად ვერ გადაწონის რისკს".

ეს ლოგიკური დაშვება ჯგუფის მიერ შემუშავბულ ფორმულასთან ერთად არაეთიკური სტრატეგიის რისკსა და მის ზემოქმედებას გამოითვლის. მომავალში მსგავსი მიდგომა რისკის მთლიანად მოსაშორებლად შეიძლება გამოდგეს.

"აღნიშნული პრინციპი იმაზეც მიანიშნებს, რომ შეიძლება, იმის გადაფასება იყოს საჭირო, თუ როგორ ფუნქციონირებს ხელოვნური ინტელექტი განსაკუთრებით ფართომასშტაბიანი სტრატეგიების შემუშავებისას, რათა არაეთიკური გადაწყვეტილებები AI-ის ოპტიმიზაციის/დასწავლის პროცესშივე იყოს უარყოფილი", — ამატებს მაკკეი.

მაშინ, როცა ადამიანის ჩარევა ხელოვნური ინტელექტის საქმიანობაში სულ უფრო მცირდება, აუცილებელია დავრწმუნდეთ, რომ მასზე დაკვირვების რესურსი მოგვეპოვება.