ამერიკული მედიის ცნობით, ჯოფრი ჰინტონმა, ასევე ცნობილმა, როგორც — "ხელოვნური ინტელექტის ნათლია" — დატოვა სამსახური Google-ში, რათა ესაუბრა თანამედროვე ტექნოლოგიის საფრთხეებზე.

ჯოფრიმ The New York Times-ს განუცხადა, რომ ამ სფეროში მიმდინარე მიღწევები წარმოადგენს "დიდ რისკს საზოგადოებისა და კაცობრიობისთვის".

"დააკვირდით, როგორი იყო ის 5 წლის წინ და როგორია ახლა. შეხედეთ ამ განსხვავებას და განაზოგადეთ იგი მომავალზე. ეს საშიშია", — თქვა მან.

ჰინტონის თქმით, ტექნოლოგიურ გიგანტებს შორის არსებული კონკურენცია უბიძგებს კომპანიებს, გამოუშვან ახალი AI ტექნოლოგიები სახიფათო სიჩქარით, დააყენონ სამუშაო ადგილები რისკის ქვეშ და გაავრცელონ დეზინფორმაცია.

"რთულია, ვიპოვოთ გზა, რომლითაც 'ცუდ' აქტორებს 'ცუდი' საქმიანობისთვის ხელოვნური ინტელექტის გამოყენებას შევუზღუდავთ", — განმარტა მან.

2022 წელს გუგლმა და OpenAI-მ — კომპანიამ, რომელმაც შექმნა ChatGPT — დაიწყეს სისტემების შექმნა მონაცემთა გაცილებით დიდი მოცულობის გამოყენებით, ვიდრე მანამდე. ჰინტონის აზრით, ეს სისტემები, მათ მიერ გაანალიზებული მონაცემების რაოდენობის გათვალისწინებით, გარკვეული აზრით, უსწრებს ადამიანის ინტელექტს.

"შესაძლოა, რაც ამ სისტემებში ხდება, ბევრად უკეთესია, ვიდრე ის, რაც ტვინში ხდება", — აღნიშნა მან.

მიუხედავად იმისა, რომ AI ბევრ ადამიანს სამუშაოს უადვილებს, ადამიანთა ნაწილს იგი სამუშაოს "წართმევით" ემუქრება.

"AI თავიდან გვარიდებს რუტინულ საქმეს, მაგრამ მან, შესაძლოა, ამაზე ბევრად მეტიც შეძლოს", — დასძინა ჰინტონმა.

მეცნიერმა გაგვაფრთხილა ხელოვნური ინტელექტის მეშვეობით გავრცელებული მისინფორმაციის საფრთხეებზეც. მისი თქმით, სტატისტიკური ადამიანი ვეღარ შეძლებს გაარჩიოს, რა არის რეალური და რა — ყალბი.

აღსანიშნავია, რომ მარტში ილონ მასკმა და დარგის ექსპერტებმა ასევე გამოთქვეს ხელოვნურ ინტელექტზე მიმდინარე სამუშაოების დროებითი შეწყვეტის სურვილი. ჰინტონს მაშინ მიმდინარე მოვლენებისთვის ღიად არ დაუჭერია მხარი, თუმცა აღნიშნა, რომ მეცნიერებმა უნდა შეწყვიტონ ხელოვნური ინტელექტის განვითარება, სანამ არ დარწმუნდებიან, რომ მისი კონტროლი შეუძლიათ.

თუ სტატიაში განხილული თემა და ზოგადად: მეცნიერებისა და ტექნოლოგიების სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში – შემდეგი ჯგუფი.