მასკის თქმით, ხელოვნური ინტელექტის განვითარება რისკებთან არის დაკავშირებული, მაგრამ ეს ამად ღირს
ილონ მასკი დარწმუნებულია, რომ ხელოვნური ინტელექტი რისკის ფასად ღირს, და ეს მაშინაც კი, თუ 5-დან ერთია იმის შანსი, რომ ტექნოლოგია ადამიანების წინააღმდეგ "განეწყობა".
ხელოვნური ინტელექტის სამიტზე (Great AI Debate) მასკმა შესაბამის რისკებზე ისაუბრა.
"ვფიქრობ, არსებობს გარკვეული შანსი, რომ ამან კაცობრიობის აღსასრულამდეც მიგვიყვანოს. ალბათ, ამის შანსები 10-დან 20%-მდეა და მე ამაში ჯოფრი ჰინტონს ვეთანხმები. მიუხედავად ამისა, მგონია, რომ პოზიტიური სცენარი ნეგატიურზე უფრო მნიშვნელოვანია", — თქვა მასკმა.
ცუდი სცენარი
რომან იამპოლსკიმ, ხელოვნური ინტელექტის უსაფრთხოების მკვლევარმა, Business Insider-ს განუცხადა, რომ მასკი მართალია, როდესაც ის ხელოვნური ინტელექტის ეგზისტენციალურ საფრთხეებზე საუბრობს. მიუხედავად ამისა, იამპოლსკის აზრით, მასკი ამ მხრივ რისკებს ბოლომდე ვერ აანალიზებს.
"ამის შანსები ბევრად უფრო მაღალია", — თქვა იამპოლსკიმ.
იამპოლსკის აზრით, სცენარის ცუდად განვითარების შანსები 99.999999%-ია.
იამპოლსკის მიაჩნია, რომ ასეთი განვითარებული ხელოვნური ინტელექტის კონტროლს ვერ შევძლებთ. შესაბამისად, ცუდი სცენარისგან თავდაცვის ერთადერთი საშუალება უბრალოდ ზეგანვითარებული ხელოვნური ინტელექტის არ შექმნაა.
მასკის და ხელოვნური ინტელექტი
მასკს ბევრჯერ უთქვამს, რომ ხელოვნური ინტელექტის რეგულაცია საჭიროა. მიუხედავად ამისა, მან გასულ წელს ახალი კომპანია xAI დააარსა. xAI ხელოვნური ინტელექტის განვითარებაზე მომუშავე კომპანიაა, რომელიც OpenAI-ის კონკურენტია.
სამიტზე მასკმა ისიც აღნიშნა, რომ 2030 წლისთვის ხელოვნური ინტელექტი ადამიანურ ინტელექტს საბოლოოდ გადაასწრებს. მიუხედავად იმისა, რომ მასკი თავადაა ჩართული ხელოვნური ინტელექტის განვითარებაში, ის მაინც ამბობს, რომ თუ ასე გაგრძელდა კაცობრიობას საფრთხე დაემუქრება.
"ჩვენ ახლა AGI-ს (ხელოვნური ზოგადი ინტელექტი) ვქმნით. ეს ბავშვის აღზრდას ჰგავს, მაგრამ ეს ბავშვი გენიოსია, უფრო მეტიც, მას შეუძლია იყოს ღმერთი. შესაბამისად, ძალიან მნიშვნელოვანია ის თუ როგორ აღვზრდით მას", — თქვა მასკმა სილიკონ ველის ღონისძიებაზე.
მასკს მიაჩნია, რომ ხელოვნური ინტელექტის "აღზრდა" მაშინ იქნება უსაფრთხო, თუ მას "ტყუილის თქმის" უფლებას არ მივცემთ.
"ნუ აიძულებთ მას თქვას ტყუილი. თუნდაც სიმართლე ცუდი მოსასმენი იყოს, ჩვენ გვჭირდება სიმართლე და არა ტყუილი", — აღნიშნა მასკმა.
ჯერ კიდევ 2023 წელს შევიტყვეთ, რომ ჯოფრი ჰინტონმა, ასევე ცნობილმა, როგორც — "ხელოვნური ინტელექტის ნათლია" — დატოვა სამსახური Google-ში, რათა ესაუბრა თანამედროვე ტექნოლოგიის საფრთხეებზე.
ჰინტონმა მაშინ ხელოვნური ინტელექტის მეშვეობით გავრცელებული დეზინფორმაციის საფრთხეებზეც გაგვაფრთხილა. მისი თქმით, სტატისტიკური ადამიანი ვეღარ შეძლებს გაარჩიოს, რა არის რეალური და რა — ყალბი.
როგორც ჩანს, მასკი მას ნაწილობრივ ეთანხმება, მაგრამ ის თუ რამდენი სიკეთის მოცემა შეუძლია ხელოვნურ ინტელექტს, ესეც არაა დასავიწყებელი.
კომენტარები