ასი ათასზე მეტი ქალი ონლაინ-თავდასხმის მსხვერპლი გახდა. როგორც BBC წერს, მათი ყალბი შიშველი ფოტოები საკომუნიკაციო აპლიკაციის, ტელეგრამის მეშვეობით გავრცელდა. ფოტოებიდან ტანსაცმელი ხელოვნური ინტელექტის მიერ იყო მოშორებული.

"ფოტოებზე, როგორც ჩანს, არასრულწლოვნებიც არიან", — ნათქვამია სადაზვერვო კომპანიის, Sensity-ის ანგარიშში.

სერვისის შემქმნელების თქმით კი, ეს "უბრალოდ გართობაა".

Sensity-ის განცხადებით, ფოტოებიდან ტანსაცმელი Deepfake ბოტის გამოყენებით მოაშორეს. Deepfake ხელოვნური ინტელექტის მიერ შექმნილი რეალისტური ფოტო, ვიდეო ან აუდიო ფაილია, რომელიც რეალურ მაგალითზეა დაფუძნებული და ინტერნეტ-მომხმარებლის შეცდომაში შეყვანას ისახავს მიზნად. გარდა პროპაგანდისტული მიზნებისა, ამ ტექნოლოგიას ხშირად იყენებენ ცნობილი ადამიანების ყალბი პორნოგრაფიული ვიდეოების შესაქმნელად.

განსხვავებით მსახიობებისა თუ პოლიტიკოსებისაგან, ჩვეულებრივი ადამიანები Deepfake-ების მსხვერპლები შედარებით იშვიათად ხდებიან. ამ მხრივ ეს შემთხვევა განსაკუთრებით საყურადღებოა.

"იმისთვის, რომ Deepfake ბოტით თქვენი შიშველი ფოტო გაავრცელონ, საკმარისია, გქონდეთ სოციალური მედიის ანგარიში ღია ფოტოებით", — ამბობს Sensity-ის აღმასრულებელი დირექტორი ჯორჯიო პატრინი.

ხელოვნური ინტელექტით აღჭურვილი ბოტი Telegram-ის გასაიდუმლოებულ არხში "ცხოვრობს" და ის რამდენიმე წუთში სრულიად უფასოდ აშორებს მომხმარებლების მიერ გაგზავნილ ფოტოებს ტანსაცმელს.

მსგავსი აპლიკაცია გასულ წელს უკვე დაიხურა, თუმცა, მისი სახეცვლილი ვერსიები ინტერნეტში ჯერაც მიმოქცევაშია.

სერვისის ადმინისტრატორი, რომელიც ცნობილია, როგორც P, ამბობს: "ეს ამბავი არ მადარდებს. ეს უბრალოდ გართობაა და ძალადობას არ ისახავს მიზნად. ამ ფოტოებით ვერავინ ვერავის დააშანტაჟებს, რადგან ხარისხი არარეალისტურია". მან ასევე დაამატა, რომ სერვისზე მომუშავე ჯგუფი ფოტოებს სწავლობს და თუ მათზე მცირეწლოვანია გამოსახული, მომხმარებელს ბლოკავს. სერვისის მომხმარებელთა 70% რუსეთიდან ან ყოფილი საბჭოთა კავშირის ქვეყნებიდანაა.

Sensity-ის ანგარიშში ასევე აღნიშნულია, რომ 2019 წლის ივლისიდან 2020 წლამდე 104 852 ქალს გაუვრცელეს ყალბი შიშველი ფოტოები.

ტელეგრამს მომხდართან დაკავშირებით ჯერ კომენტარი არ გაუკეთებია.