ხელოვნური ინტელექტი ბრძოლის ველზე — ახალი სამხედრო რეალობა ირანის კონფლიქტში
როგორ ცვლის ხელოვნური ინტელექტი თანამედროვე ომს.
ფოტო: Christian Mertes
მომავალი აქ არის — ომში ხელოვნური ინტელექტი სამეცნიერო ფანტასტიკა აღარ არის!
ისრაელმა ხელოვნური ინტელექტის სისტემები ჯერ კიდევ ღაზაში გამოიყენა. სამხედროებმა ეს პოტენციური სამიზნეების მოსანიშნად და გამოსარჩევად გამოიყენეს.
გავრცელებული ინფორმაციით, შეერთებული შტატების სამხედროებმა Anthropic-ის მოდელი (Claude) ვენესუელიდან ნიკოლას მადუროს გატაცების ოპერაციის დროს გამოიყენეს.
მას შემდეგაც კი, რაც Anthropic-ს აშშ-ის ადმინისტრაციასთან პრობლემები შეექმნა, როგორც ჩანს, სამხედროებმა Claude კვლავ გამოიყენეს ირანზე თავდასხმის დროს.
ცნობისთვის, მწვავე დაპირისპირება იმას უკავშირდება, რომ აშშ-ის არმიამ იანვარში Claude გამოიყენა, რათა ვენესუელის პრეზიდენტის, ნიკოლას მადუროს, დასაჭერად სპეცოპერაცია მოეწყო. Anthropic-მა ეს გააპროტესტა და თავიანთი სერვისების გამოყენების წესებს გაუსვა ხაზი; ამ უკანასკნელთა მიხედვით, Claude-ის გამოყენება არ შეიძლება ძალადობრივი მიზნებისთვის, იარაღების შესაქმნელად ან სადაზვერვოდ.
ასევე: "აკრძალული AI" ირანის წინააღმდეგ: აშშ-ის არმიამ, სავარაუდოდ, იერიშისას Claude გამოიყენა
და, აი, ახლა ექსპერტების თქმით, დიდი ალბათობით, თეირანის თავზე მფრინავი რაკეტები ხელოვნური ინტელექტით იმართება.
"ხელოვნური ინტელექტი თანამედროვე ომის ბუნებას ცვლის. მას სამხედრო კონფლიქტებზე დიდი გავლენა აქვს და მომავალში კიდევ უფრო ექნება", — ამბობს კრეიგ ჯონსი, ნიუკასლის უნივერსიტეტის მკვლევარი.
მოგვწონს თუ არა, როგორც ჩანს, უკან დასახევი გზა აღარ არსებობს. ამის კარგი მაგალითია აშშ-ის თავდაცვის მდივნის (ომის მდივანი) პიტ ჰეგსეთის მოწოდება სამხედროებისთვის: "მე მოვუწოდებ ომის დეპარტამენტს, დააჩქაროს ამერიკის სამხედრო ხელოვნური ინტელექტის განვითარება ყველა კომპონენტში. საჭიროა ვიყოთ ხელოვნურ ინტელექტზე ორიენტირებული."
ფოტო: AP/CentCom
ფაქტია, თანამედროვე ომში ტექნოლოგიის როლი სულ უფრო იზრდება. მაგალითად, უკრაინელებს აქვთ დრონები, რომლებიც ოპერატორთან (ადამიანთან) კავშირის დაკარგვის შემდეგადაც აგრძელებს მისიას.
"ტერმინატორის ეპოქაში ჯერ არ ვართ", — ამბობს დევიდ ლესლი, ლონდონის დედოფალ მერის უნივერსიტეტის ეთიკისა და ტექნოლოგიების პროფესორი.
სისტემები, რომლებშიც ხელოვნური ინტელექტია ჩაშენებული, მრჩევლების როლს ასრულებს. ეს სისტემები აღნიშნავს სამიზნეებს, აფასებს საფრთხეებსა და გვთავაზობს პრიორიტეტებს.
ხელოვნური ინტელექტის სისტემებს თანამგზავრული გამოსახულებების, ჩაჭრილი კომუნიკაციების, ლოჯისტიკური მონაცემებისა და სოციალური მედიის ნაკადების დამუშავება ადამიანებზე ბევრად სწრაფად შეუძლია.
ეს ნიშნავს, რომ დღეს ხელოვნური ინტელექტი ომში მხოლოდ ინსტრუმენტი არაა, ის გადაწყვეტილების მიღების მექანიზმიცაა.
"და, აი, ახლა ხელოვნური ინტელექტი იძლევა ინსტრუქციებს და შეიძლება დაგეხმაროთ ირანის ლიდერის მოკვლაში.", — აღნიშნა დევიდ ლესლიმ.
ძალიან დამაჯერებელი ინსტრუმენტი
პროფესორი ლესლი აღნიშნავს, რომ ახალი სისტემები სამხედრო თვალსაზრისით უაღრესად ქმედითუნარიანია.
ლესლის თქმით, გადაწყვეტილების მიღების დაჩქარება არის ის, რაც სამხედროებს დიდ უპირატესობას ანიჭებს.
გადაწყვეტილების მხარდაჭერის სისტემების მნიშვნელოვანი მახასიათებელი ისაა, რომ ხელოვნური ინტელექტი ღილაკს არ აჭერს; ამას ადამიანი აკეთებს. ეს მსგავს დებატებში ცენტრალური (დამამშვიდებელი) ფაქტორია — ადამიანი ყოველთვის იყო პროცესში.
OpenAI-ში განაცხადეს, რომ მათი ინჟინრები პენტაგონს ხელოვნური ინტელექტის სისტემების გამართვაში დაეხმარებიან. კომპანიამ ასევე ხაზგასმით აღნიშნა, რომ მისი ტექნოლოგია "წითელ ხაზებს" არ გადაკვეთს. ამაში იგულისხმება მასობრივი შიდა თვალთვალი, ავტონომიური შეიარაღების სისტემები და რისკის შემცველი ავტომატიზებული გადაწყვეტილებები.
მიუხედავად ამისა, მაშინაც კი, როდესაც პროცესში ადამიანია ჩართული, კითხვები მაინც რჩება.
ფოტო: Airbus
შეუძლია თუ არა ადამიანს ომში ხელოვნური ინტელექტის მიერ მიღებული თითოეული გადაწყვეტილების შემოწმება? როდესაც დრო ძალიან ცოტაა და ინფორმაცია არასრული, რას ნიშნავს ადამიანის ზედამხედველობა?
"ტექნიკურად, ადამიანები ამ პროცესში ჩართულები არიან. მეორე მხრივ, ეს არ ნიშნავს, რომ ადამიანი საკმარისად ინფორმირებულებია, რათა სწორი გადაწყვეტილება მიიღოს. ხელოვნური ინტელექტი ძალიან დამაჯერებელი ინსტრუმენტია გადაწყვეტილების მიმღები ადამიანისთვის", — ამბობს დოქტორი ჯონსი.
რა გამოდის? ვამბობთ, რომ საბოლოო გადაწყვეტილება ადამიანზეა, მაგრამ მას შეიძლება "ბრმად მინდობა" მოუწიოს.
შესაძლოა, ხელოვნური ინტელექტი შეცდეს?
Sky News-ის მიერ ჩატარებულმა ტესტირებამ აჩვენა, რომ Claude-მა და ChatGPT-მ ვერ შეძლო იმის თქმა, თუ რამდენი ფეხი ჰქონდა ქათამს, თუ ის ისე არ გამოიყურებოდა, როგორც მოსალოდნელი იყო.
მეტიც, ხელოვნური ინტელექტი ამტკიცებდა, რომ მართალი იყო, მაშინაც კი, როდესაც აშკარად ცდებოდა.
"პრობლემა ზოგადია; ის დამოკიდებულია მონაცემებსა და ამოცანის ტიპებზე", — აღნიშნა ხელოვნური ინტელექტის მკვლევარმა ანჰ ვომ.
მიზეზი ის არის, რომ ხელოვნური ინტელექტი სამყაროს ადამიანური გაგებით არ აღიქვამს —ის წარსული მონაცემების საფუძველზე ვარაუდობს, თუ რა არის ყველაზე მოსალოდნელი.
უმეტეს შემთხვევაში, ამ ტიპის სტატისტიკური მსჯელობა გასაოცრად ეფექტიანია. სამყარო საკმარისად პროგნოზირებადია თუ საკმარისი მონაცემები გვაქვს და მათი დამუშავება შეგვიძლია. მიუხედავად ამისა, არის შემთხვევები, როდესაც რეალობა თავისი ბუნებით არაპროგნოზირებადია. ასეთ დროს არასწორი გადაწყვეტილება შეიძლება ძალიან ძვირად დაგვიჯდეს. ხელოვნური ინტელექტით სწორედ ასეთ დანის პირზე გასვლას ვცდილობთ.
მიუხედავად იმისა, რომ ამ საკითხზე პენტაგონს ოფიციალური განცხადება არ გაუკეთებია, ძალიან ბევრი წყარო ადასტურებს, რომ აშშ‑ის სამხედრო უწყება იყენებს და იყენებდა AI‑ს მონაცემების ანალიზში, სამიზნეების არჩევისას და ოპერაციულ დაგეგმარებაში ირანთან მიმდინარე კონფლიქტში.
ირანის კონფლიქტი გვიჩვენებს, რომ ახალ რეალობაში შევაბიჯეთ, რომელშიც ხელოვნური ინტელექტი ბრძოლის ველზეა და მისი გადაწყვეტილებები სულ უფრო ავტონომიური ხდება.
კომენტარები