არაერთმა ცნობილმა მკვლევარმა და ილონ მასკმა ხელი მოაწერეს ერთობლივ ღია წერილს, რომელშიც ისინი AI სისტემების ფართომასშტაბიანი კვლევების დროებით შეჩერებასა და გადახედვას ითხოვენ.

წერილში, რომელიც Future of Life Institute-ის მიერ გამოქვეყნდა, აღნიშნულია, რომ ხელოვნური ინტელექტის ლაბორატორიები ამჟამად ჩართულნი არიან "უკონტროლო რბოლაში", რათა განავითარონ მანქანათმცოდნეობის სისტემები, "რისი კონტროლიც არავის — თავად მის შემქმნელებსაც არ შეუძლიათ".

"ამიტომ, ჩვენ მოვუწოდებთ ყველას ვინც GPT-4-ზე ძლიერ AI სისტემებზე მუშაობს, 6 თვით შეაჩერონ კვლევები. ეს ყველაფერი უნდა მოხდეს საჯაროდ. თუ ასეთი პაუზის სწრაფად ამოქმედება შეუძლებელია, მთავრობები უნდა ჩაერთონ და მორატორიუმი დააწესონ", — ნათქვამია წერილში.

ხელმომწერები არიან ავტორი იუვალ ნოხ ჰარარი, Apple-ის თანადამფუძნებელი სტივ ვოზნიაკი, სკაიპის თანადამფუძნებელი ჯაან ტალინი, პოლიტიკოსი ენდრიუ იანგი და მრავალი ცნობილი სახე თუ ხელოვნური ინტელექტის მკვლევარი.

ხელმომწერთა სრული სია შეგიძლიათ იხილოთ აქ.

ნაკლებად სავარაუდოა, რომ წერილმა რაიმე გავლენა მოახდინოს ხელოვნური ინტელექტის მიმდინარე კვლევებზე. ტექნოლოგიური გიგანტები, როგორებიცაა Google და Microsoft, ჩქარობენ ახალი პროდუქტების შემუშავებას და მსგავს საკითხებზე ნაკლებად ფიქრობენ. თუმცა, ეს შეიძლება რეგულატორბისთვის ანთებული მწვანე შუქი იყოს.

როგორც წერილშია აღნიშნული, თვით OpenAI-იც კი უშვებს AI სისტემების "დამოუკიდებელ განხილვას". ხელმომწერები ამბობენ, რომ ეს დრო დადგა.

"AI მკვლევრებმა და დამოუკიდებელმა ექსპერტებმა უნდა გამოიყენონ ეს პაუზა, რათა ერთობლივად შეიმუშაონ და განახორციელონ უსაფრთხოების საერთო პროტოკოლი. ეს საჭიროა მოწინავე ხელოვნური ინტელექტის სისტემების შესამუშავებლად. მსგავსი სისტემები მკაცრად უნდა მოწმდებოდეს დამოუკიდებელი გარე ექსპერტების მიერ", — აღნიშნულია წერილში.

თუ სტატიაში განხილული თემა და ზოგადად: მეცნიერებისა და ტექნოლოგიების სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში – შემდეგი ჯგუფი.