ბოლო წლების მანძილზე DeepFake ტექნოლოგია წარმოუდგენლად დაიხვეწა. უმეტესობა მას გართობის მიზნით მოიხმარს, თუმცა, ადამიანების ნაწილი გართობას არ სჯერდება და ამ ტექნოლოგიას კრიმინალური მიზნებისთვის იყენებს.

ორი წლის წინ ამ ტექნოლოგიით თანხა გაერთიანებული სამეფოს ერთ-ერთი ბანკიდან მოითხოვეს, ამჯერად კი მსგავსი რამ არაბთა გაერთაიენბულ საამიეორბში მოხდა, სადაც მძარცველებმა ბანკიდან 35 მილიონი დოლარის მოპარვა AI ხმის კლონირების ტექნოლოგიით შეძლეს. Forbes-ის მიერ გამოვლენილმა სასამართლოს დოკუმენტებმა აჩვენა, რომ 2020 წლის დასაწყისში თაღლითებმა კომპანიის აღმასრულებელი დირექტორის ხმა DeepFake-ით მიიღეს, რომლის გამოყენებითაც ბანკის მენეჯერს დაუკავშირდნენ. ამ უკანასკნელმა კი მძარცველებს საკუთრებაში მილიონები გადასცა.

ასევე იხილეთ: ხმის კლონირება — რეკლამისთვის ცნობილი ადამიანების ხმის ჩაწერა საჭირო აღარ იქნება

აღმასრულებელი დირექტორის ხმით თაღლითებმა მენეჯერს განუცხადეს, რომ მას ბანკისთვის გარკვეული შენაძენი უნდა გაეკეთებინა და ამისთვის თანხა სჭირდებოდა. მენეჯერმა იცნო მისი ხმა და იქიდან გამომდინარე, რომ აღმასრულებელ დირექტორთან აქამდეც უმუშავია, მოსმენილი დაიჯერა და თანხა პირდაპირ თაღლითების ანგარიშზე გადარიცხა.

UAE-მ ამერიკელ გამომძიებლებს შესთავაზა დახმარება, რომლებიც დოკუმენტების მიხედვით, აშშ-ში დაფუძნებული ბანკის ანგარიშზე გადმორიცხული 400 000 დოლარის კვალს იძიებენ. დუბაის გამომძიებლები ფიქრობენ, რომ ამ ოპერაციაში 17 ადამიანი მაინც მონაწილეობდა, რომლებმაც ასევე DeepFake ტექნოლოგიის საშუალებით მიღებული თანხა მსოფლიოს გარშემო ბანკებში გაანაწილეს.

აღსანიშნავია, რომ ეს უკვე მეორე შემთხვევაა, როდესაც თაღლითებმა DeepFake-ით შეცვლილი ხმა ბანკის გასაძარცვად გამოიყენეს. Wall Street Journal-ის მიხედვით, 2019 წელს ხელოვნური ინტელექტით მიღებული აღმასრულებელი დირექტორის ხმით მძარცველებმა 243 000 დოლარის მოპარვა სცადეს.

იქიდან გამომდინარე, რომ DeepFake ტექნოლოგია სწრაფი ტემპით განაგრძობს დახვეწას, მომავალში ალბათ კიდევ ბევრ ასეთ შემთხვევას ვიხილავთ.

თუ სტატიაში განხილული თემა და ტექნოლოგიების სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში, სადაც ვლაპარაკობთ ტექნოლოგიებზე