ევროპული სამეცნიერო კვლევითი ინსტიტუტის მაქს პლანკის საზოგადოების თქმით, კაცობრიობა ვერასოდეს შეძლებს გააკონტროლოს სუპერ-ინტელექტუალური ხელოვნური ინტელექტი, რომელსაც შეეძლება კაცობრიობა გადაარჩინოს ან გაანადგუროს.

გასულ კვირას Journal of Artificial Intelligence Research-ში გამოქვეყნებული კვლევის თანახმად, შეუძლებელია სუპერინტელექტის გაკონტროლება. მაქს პლანკის მეცნიერების თქმით, პრობლემა ისაა, რომ არ არსებობს ისეთი ალგორითმის შემცველი ტექნოლოგია, რომელიც სუპერ-ინტელექტს, ადამიანის უძლურობის შემთხვევაში, გააკონტროლებს.

გუნდმა პირველ რიგში ყურადღება გაამახვილა შეკავების საკითხზე. თუ ყოვლისშემძლე ალგორითმმა გადაწყვიტა, რომ მან უნდა დააზიანოს ხალხი, როგორ ავიცილებდით მის ბოროტ მოქმედებებს?

ისინი გვთავაზობენ ერთგვარი "შეკავების ალგორითმის" შექმნას, რომელიც იმოქმედებს საშიში ალგორითმის საპირისპიროდ და შეაფერხებს მის საზიანო მოქმედებებს — მაგრამ იმის გამო, რომ შეკავების ალგორითმი უნდა იყოს მინიმუმ ისეთივე ძლიერი, როგორც ანტაგონისტი ალგორითმი, მეცნიერებმა პრობლემის გადაჭრა შეუძლებლად გამოაცხადეს.

ეს ყველაფერი თეორიული დებატებია. ეპოქა, როცა AI საფრთხეს შეუქმნის კაცობრიობას, ჯერ კიდევ შორს არის. თუმცა, რა თქმა უნდა, ეს კარგი თემაა წინასწარი დებატებისთვის — ჩვენ, უბრალოდ, უნდა გავსაზღვროთ ეს საფრთხე მის დადგომამდე და თავიდან ავირიდოთ ის.

"სუპერ ინტელექტუალური მანქანა, რომელიც მსოფლიოს აკონტროლებს, სამეცნიერო ფანტასტიკას ჰგავს", — თქვა პრეს-რელიზში მაქს პლანკის ჯგუფის ხელმძღვანელმა მანუელ ცებრიანმა. "მაგრამ უკვე არსებობს მანქანები, რომლებიც გარკვეულ მნიშვნელოვან დავალებებს დამოუკიდებლად ასრულებენ, ამიტომ ჩნდება კითხვა. შეიძლება გარკვეულ მომენტში გახდნენ ისინი უკონტროლო და საშიშნი კაცობრიობისთვის."