ხელოვნური ინტელექტი თვითონ გვეტყვის, როდის არ ღირს მას ვენდოთ
საინტერესოა როგორი იქნებოდა Terminator-ის სიუჟეტი, სადაც Skynet-მა ადამიანებს წინასწარ შეატყობინა, რომ ატომური ბომბის მისთვის ჩაბარება საშიშია. წარმოიდგინეთ ხელოვნური ინტელექტი, რომელიც გეუბნებათ — "არა, მე შეიარაღებას არ ჩავიბარებ, საშიში ვარ."
როგორც ჩანს, მეცნიერებმა სამყაროს ტერმინატორისეული მომავლისგან გვიხსნეს. მათ შექმნეს ნეირონული ქსელი, რომელმაც იცის, როდის არ არის სანდო.
ეს მანქანური ღრმა სწავლების ნეირონული ქსელები შეიქმნა ადამიანის ტვინის იმიტაციისთვის. ის ახდენს ისეთი მრავალი ფაქტორის აწოვნვას და მონაცემების დაფიქსირებას, რისი ანალიზის უნარიც ადამიანის გონებას არ გააჩნია.
ხელოვნური ინტელექტი უკვე იღებს გადაწყვეტილებებს ისეთ სფეროებში, რომლებიც გავლენას ახდენს ადამიანის სიცოცხლეზე. მაგალითისვის, ავტონომიური მართვა და სამედიცინო დიაგნოზიც საკმარისია. ეს ნიშნავს, რომ ხელოვნური ინტელექტი მაქსიმალურად ზუსტი უნდა იყოს. სწორედ ამ სიზუსტის მისაღწევად და გასაკონტროლებლად შეიქმნა ახალი ნეირონული სისტემის ქსელი.
"ჩვენ მაღალი დონის ტექნოლოგიები გვჭირდება, მაგრამ უნდა ვიცოდეთ, თუ როდის შეიძლება მათ ნდობა გამოვუცხადოთ", — ამბობს MIT-ის და Artificial Intelligence Laboratory-ის კომპიუტერული მეცნიერი — ალექსანდრე ამინი.
ამ სანდოობისა და თვითშეფასების სისტემას ეწოდა Deep Evidential Regression და მისი შეფასება ეფუძნება მონაცემების ხარისხსზე მუშაობას. რაც უფრო დამუშავდება მონაცემები, მით უფრო სავარაუდოა, რომ პროგნოზები ზუსტი იქნება.
მკვლევარების გუნდი ამ ყველაფერს თვითმართვად ავტომობილს ადარებს, რომელსაც აქვს გარკვეული ცოდნა, მაგალითისთვის, უნდა გადავიდეს გზაჯვარედინზე თუ არა.
მიუხედავად იმისა, რომ მსგავს ნეირონულ ქსელებზე ადრეც უმუშავიათ, ის რაც კონკრეტულ კვლევას წინამორბედებისგან განასხვავებს, არის სიჩქარე და ზედმეტი გამოთვლების გარეშე მუშაობის შესაძლებლობა.
"ამ მეთოდის ნებისმიერმა მომხმარებელმა, იქნება ეს ექიმი თუ თვითმართვადი ავტომობილის მგზავრი, უნდა გაითვალისწინოს რისკები", — ამბობს ამინი.
მეცნიერებმა ახალი სისტემა სურათების სხვდასხვა ნაწილში სიღრმეების განსჯის პროცესში შეამოწმეს, ეს გავს იმას, თუ როგორ აფასებს მანძილს თვითმართვადი მანქანა. მნიშვნელოვანია, რომ ქსელმა არსებულ პარამეტრებთან ერთად, საკუთარი შეცდომებიც კარგად შეაფასა.
თუმცა, მაშინაც კი, თუ ნეირონული ქსელი 99 პროცენტით სწორია, 1 პროცენტის ცდომილებას შეიძლება ცუდი შედეგი მოჰყვეს. მკვლევრების თქმით, ისინი დარწმუნებულნი არიან, რომ მათმა ახალმა, გამარტივებულმა ნდობის სისტემამ შეიძლება გააუმჯობესოს უსაფრთხოების საკითხი. თუმცა, ამ შედეგებს ჯერ კიდევ შემოწმება სჭირდება.
კომენტარები