როგორ ებრძვიან დეზინფორმაციას ხელოვნური ინტელექტის დახმარებით — საქართველოსა და მსოფლიოში

0 წაკითხვა 0 კომენტარი 0 გაზიარება

"ორლესული ხმალი"

ინტერნეტმა და სოციალურმა მედიამ ახალი ამბების გავრცელებისა და მიღების გზები რადიკალურად შეცვალა. ინფორმაციის მუდმივად მზარდი ნაკადი ამ სივრცეში სიმართლისა და ტყუილის გარჩევას ძალიან ართულებს, განსაკუთრებით მაშინ, როცა ინტერნეტი სავსეა არაკეთილსინდისიერი აქტორებით, რომლებიც დეზინფორმაციას გამიზნულად ქმნიან.

დეზინფორმაციის გაფილტვრა, მისგან თავდაცვა საკმაოდ რთულია და, მიუხედავად ფაქტ-ჩექერების აქტიური მუშაობისა, მხოლოდ ადამიანური რესურსით, ფაქტობრივად, შეუძლებელი — ეს კი ხელოვნურ ინტელექტსა (AI) და მანქანურ დასწავლას (ML) ყურადღების ცენტრში აქცევს.

ასევე იხილეთ: ქვიზი: შეგიძლია თუ არა, ამოიცნო ხელოვნური ინტელექტით შექმნილი ფოტოები?

შეიძლება ითქვას, რომ ხელოვნური ინტელექტი ამ კონტექსტში "ორლესული ხმალია" — დეზინფორმაციის ავტორები კონტენტის შესაქმნელად და გასავრცელებლად AI-ს აქტიურად იყენებენ და სწორედ მისი გამოყენების ბენეფიტებს იკვლევენ ამ დეზინფორმაციის წინააღმდეგ მებრძოლი აქტორებიც.

2020 წლის შემდეგ ეს ბრძოლა უფრო რელევანტური გახდა: პანდემიის შედეგად შექმნილი ქაოსი საზოგადოების კიდევ უფრო დასაბნევად, პანიკის დასათესად და ამით სხვადასხვა სახის სარგებლის მისაღებად იდეალური სივრცე აღმოჩნდა. პანდემიის დასრულების შემდეგ ბრძოლის ველმა პოლიტიკურ სივრცეში გადაინაცვლა და, შესაბამისად, შემთხვევითი არ არის, რომ დეზინფორმაციის გამავრცელებელ სახელმწიფოთა სიას სათავეში რუსეთი და ირანი უდგანან.

DeepFake ტექნოლოგიების საშუალებით სხვადასხვა გავლენიანი ფიგურის იდენტობის მოპარვაა შესაძლებელი, ამ გზით შექმნილი კონტენტის რეალურისგან გარჩევა კი ხშირად გამოცდილი თვალისთვისაც ძალიან რთულია. კიდევ ერთი პრობლემა გენერაციული ხელოვნური ინტელექტია, როემლსაც უკვე "ადამიანური" ტექსტების შექმნაც შეუძლია — შესაბამისად, დეზინფორმაციის გავრცელება ახლა უკვე ამ საქმის მოყვარულსაც კი შეუძლია. ხსნა, ალბათ, ისევ ტექნოლოგიებშია, საქმე კი ის არის, თუ როგორ უნდა გამოვიყენოთ ხელოვნური ინტელექტი ამ ტალღის მოსაგერიებლად.

ფოტო: Statista

სემანტიკური ანალიზი დეზინფორმაციის გასაფილტრად

პირველი, რაც დეზინფორმაციასთან ტექნოლოგიების გამოყენებით ბრძოლის ხსენებისას თავში მოგვდის, კონტენტის ანალიზია. ხელოვნური ინტელექტით აღჭურვილ ხელსაწყოებს ტექსტის ლინგვისტური ანალიზი და ადამიანის მიერ შექმნილი ტექსტის კომპიუტერულად გენერირებულისგან გარჩევა სხვადასხვა მახასიათებლის გამოყოფით შეუძლიათ. ასეთი ალგორითმები ნებისმიერი სახის ტექსტის იღებენ და ამოწმებენ სიტყვების განლაგებას, მათ კონოტაციას, რათა სიძულვილის ენა ამოიცნონ. მეტიც, AI ალგორითმები ხშირად დამონტაჟებულ ვიდეოებსა და Deep fake-ებსაც ცნობენ.

სამწუხაროდ, ეს საკმარისი არ არის. გენერაციული ქსელები იმდენად ვითარდება, რომ ალგორითმები მალე ისეთ კონტენტს შექმნიან, რომელიც ადამიანური ანალოგის იდენტური იქნება. სიტუაციას უფრო ამძაფრებს ის, რომ სემანტიკური ანალიზის საშუალებებს არ შეუძლიათ იმ დეზინფორმაციის ამოცნობა, რომელიც უბრალოდ არასწორ ან მავნე კონტექსტში გაშუქდა და უშუალოდ მასზე მანიპულაციას ადგილი არ ჰქონია. ასევე, მათ არ შეუძლიათ ინფორმაციის მცდარობის გადამოწმება. წინაღობებს ემატება ენობრივი ბარიერიც. მარტივად თუ ვიტყვით, ამ მეთოდით ფასდება სენტიმენტი, თუმცა არა ჭეშმარიტება — აქ ადამიანის ჩარევის აუცილებლობა დგება.

ფოტო: World Economic Forum

სათავის ძიება

ხშირად რამდენიმე განსხვავებული ყალბი ამბავი საერთო სათავეს იზიარებს. მაგალითად, პროექტი FANDANGO იყენებს სპეციალისტების, პროფესიონალი ფაქტჩექერების მიერ დადასტურებულ ყალბ ამბავს, შემდეგ კი სოციალური მედიის პოსტებსა და ვებგვერდებზე ეძებს ანალოგიური ფრაზებისა და ინფორმაციის შემცველ კონტენტს. ეს საშუალებას აძლევს ჟურნალისტებსა და ექსპერტებს, რომ ყალბი ინფორმაციის სათავემდე მიაღწიონ და პოტენციური საფრთხეები უკონტროლოდ გავრცელებამდე გააუვნებლონ.

ანალოგიურად მუშაობენ ისეთი სერვისებიც, როგორებიც Politifact, Snopes და FactCheck არიან — მათი რედაქტორები საფუძვლიანად იკვლევენ ტექსტების ავთენტურობას, ხოლო როცა ყალბ ინფორმაციას აღმოაჩენენ, საქმეში ხელოვნური ინტელექტის ალგორითმი ერთვება. ის მსგავსი ინფორმაციის შემცველ ყველა სახიფათო სტატიას/ტექსტს პოულობს.

რასაკვირველია, სიძულვილის ენისა და ყალბი ინფორმაციების გამოვლენის საქმეში მხოლოდ ფაქტჩექერებს ვერ დავეყრდნობით, რადგან მიკერძოებას ეს პროცესიც შეიძლება შეიცავდეს — შეურაცხმყოფელი და სოციალურად მიუღებელი ინფორმაციის აღქმა ინდივიდუალური შეფასების საგანია. მაგალითად, შეიძლება ერთი შეხედვით საეჭვო სიახლე ემოციური ტონით მოგვითხრობდეს რაიმე ინციდენტზე, რაც ერთ რედაქტორზე იმოქმედებს, მეორეზე კი არა. შესაბამისად, ფილტრაციის ამ მეთოდს შეუძლია, ობიექტურად შეაფასოს ინფორმაციის მართებულობა, თუმცა არა მისი სენტიმენტები.

ასევე იხილეთ: ხელოვნური ინტელექტის მომავალი — როგორ შეცვლის AI თანამედროვე სამყაროს?

გავრცელების ანალიზი

ცნობილია, რომ ყალბი ამბავი უფრო სწრაფად ვრცელდება, ვიდრე რეალური. მასაჩუსეტსის ტექნოლოგიის ინსტიტუტის (MIT) კვლევის მიხედვით, X-ზე (ყოფილ Twitter-ზე) დეზინფორმაციის გავრცელების სიჩქარე ავთენტური ინფორმაციის ანალოგიურ მაჩვენებელს, სულ მცირე, ექსვსჯერ აღემატება (ათვლილია 1500 მნახველამდე მიღწევის სიჩქარე). მეტიც, გადაზიარების ჯაჭვის სიგრძე ნამდვილი ამბის შემთხვევაში 10-ს არც ერთ შემთხვევაში არ აღემატებოდა, ხოლო ყალბი ამბის შემთხვევაში 19-საც აღწევდა. ეს, სავარაუდოდ, ბოტების არმიების დამსახურებაა, რომელთაც დეზინფორმატორები ამბის გასავირუსებლად იყენებენ.

თუმცა, ამ ყველაფერში მხოლოდ ბოტებს ვერ დავადანაშაულებთ — ყალბი ინფორმაციის გადაუმოწმებლად გაზიარება ჩვეულებრივ ადამიანებსაც ახასიათებთ. ამის გასაკონტროლებლად GoodNews იყენებს AI ალგორითმს, რომელიც დეზინფორმაციას ჩართულობის მაჩვენებლებით ავლენს, ვინაიდან, როგორც წესი, ყალბ სიახლეებს მოწონებაზე მეტი გაზიარება აქვს, ხოლო რეალურს პირიქით.

დეზინფორმაციასთან ბრძოლა საქართველოში

ყალბი ამბების უკონტროლო გავრცელება მნიშვნელოვანი პრობლემაა საქართველოშიც. რუსეთთან დაკავშირებული აქტორებისგან მომდინარე დეზინფორმაციისაგან თავდაცვა კრიტიკულად მნიშვნელოვანია, თუმცა ჩამოთვლილი ხელსაწყოები ქართულ ენასთან თავსებადი არ არის. მიუხედავად ამისა, მაინც არსებობს მეთოდები, რომლის გამოყენებაც ქართველ ფაქტჩექერებს შეუძლიათ.

ასევე იხილეთ: ქართული ენისთვის დეზინფორმაციის აღმოჩენისა და მონიტორინგის პირველი ხელსაწყოები იქმნება

2021 წელს, Zink Network-ის კონკურსის ფარგლებში, ქართულმა კომპანია wavetech.ai-მ შექმნა პირველი ქართულენოვანი Speech to Text პლატფორმა, რომელიც საშუალებას იძლევა, ათასობით საათის მოცულობის დეზინფორმაციული ვიდეო და აუდიო სტრიმების ტრანსკრიპტი მომზადდეს. ხელსაწყოს დამატებით მოდულებს ტექსტის ანალიზიც შეუძლია და მას ამჟამად Mediaspeech.ai ჰქვია.

კონკურსის კიდევ ერთი გამარჯვებული სტარტაპის — MetaMine-ის ხელსაწყო საჯარო წყაროებიდან აგროვებს ინფორმაციას და ფაქტჩექერებს მათ გაანალიზებაში ეხმარება. საქართველოში დეზინფორმაციასთან ბრძოლის პირველი ინოვაციური ტექნოლოგიების შექმნაში წვლილი სტარტაპმა Supernova-მაც (ყოფილი Pulsar.AI) შეიტანა. კომპანია კონკურსის ერთ-ერთი გამარჯვებული გახდა და USAID-ის მხარდაჭერით შექმნა ხელსაწყო Datavision. ეს რესურსი გვეხმარება, მხოლოდ პირადი ნომრის საშალებით, მოვიძიოთ პიროვნების ბიზნეს საქმიანობის დეტალები: თუ რომელ კომპანიაშია დარეგისტრირებული, ვინ არიან მისი მეწილეები, რომელი პოლიტიკური პარტიები დაუფინანსებია, რა ტენდერებში გაუმარჯვია და ა.შ. ის აერთიანებს ღია და სანდო წყაროებს, ერთ სივრცეში უყრის თავს საჯარო ინფორმაციას გამოძიებისთვის საჭირო მხარეებს შორის დამალული კავშირის აღმოსაჩენად. (გაითვალისწინეთ, რომ პლატფორმაზე კომპანიის რეგისტრაციისთვის Supernova-ს დასტური დაგჭირდებათ. იხ. ვიდეოგზამკვლევი).

ასევე იხილეთ: დეზინფორმაციასთან ბრძოლა საქართველოში — გამოცდილება, გამოწვევები და კონკურსი

ქართულენოვან პლატფორმებზე მუშაობა აქტიურად მიმდინარეობს, თუმცა ჯერ ისევ შორი გზაა გასავლელი. ქართულენოვანი ინტერნეტის დეზინფორმაციისგან დასაცავად საჭიროა, დეზინფორმაციის წინააღმდეგ მომუშავე ორგანიზაციების, მკვლევრებისა და ტექნოლოგიური სტარტაპების კოლაბორაცია, იმისათვის, რომ დეზინფორმაციის ამოცნობისა და მასთან ბრძოლისთვის შესაბამისი ხელსაწყოები შეიქმნას.

"დეზინფორმაციის გადამოწმებისა და გაანალიზების კუთხით ძალიან მნიშვნელოვანია თანამშრომლობა სხვადასხვა სექტორს შორის. მკვლევრებსა და ტექნოლოგიურ კომპანიებს შორის თანამშრომლობის შედეგად, ჩვენ შეიძლება შევქმნათ ისეთი პროგრამები, რომლებიც ძალიან დიდ რესურსს დაგვიზოგავს დეზინფორმაციის მკვლევრებს. დეზინფორმაციის გამოვლენის დიდი წილი შეიძლება გახდეს ავტომატიზირებული პროცესი და დარჩენილი რესურსი, რომელიც გამოთავისუფლდება, შეგვიძლია, მოვახმაროთ ბევრად უფრო ღირებულ საქმიანობას, როგორიცაა დეზინფორმაციის კიდევ უფრო სიღრმისეული კვლევა და ასევე, საზოგადოებასთან სწორი კომუნიკაცია ამ საკითხებზე", — გვიყვებოდა DFRlab-ის მკვლევარი, სოფო გელავა 2021 წელს, DataFest Tbilisi-ზე ჩაწერილ ინტერვიუში.

საბოლოოდ, ხელოვნური ინტელექტი თანდათან ფაქტჩექერებისა და დეზინფორმატორების ახლო მოკავშირე ხდება. მთავარი ის არის, ვინ უფრო კრეატიული იქნება ამ ბრძოლაში — შეძლებს თუ არა "ნათელი" ტექნოლოგიები "ბნელი" ტექნოლოგიების დამარცხებას. თუ ამას მედიაწიგნიერების გავრცელებაც შეუწყობს ხელს, ყალბი ამბებით გამოწვეული ზიანის არიდება, რასაკვირველია, შესაძლებელია.

მასალა შექმნილია ევროკავშირის ფინანსური მხარდაჭერით. მის შინაარსზე პასუხისმგებელია EU4IM-ის ბენეფიციარი On.ge. სტატიაში გამოთქმული მოსაზრებები, შესაძლოა, არ ასახავდეს ევროკავშირის შეხედულებებს.


კომენტარები

კვირის ტოპ-5

  1. ჩინეთის ქალაქები იძირება — რასთან გვაქვს საქმე
  2. რა ასაკში მიაჩნიათ ადამიანი ხანდაზმულად
  3. NASA-ს ხელმძღვანელის თქმით, ჩინეთი კოსმოსში გასაიდუმლოებულ სამხედრო ექსპერიმენტებს ატარებს
  4. ყველაზე დიდი ცხოველი, რომელსაც ხმელეთზე უარსებია — პატაგოტიტანი
  5. ვცხოვრობთ თუ არა სიმულაციაში — მეცნიერის თქმით, მან ამის მტკიცებულებას მიაგნო

გირჩევთ