Deepfake ტექნოლოგია სულ უფრო ვითარდება. ის კომპანიებს შესაძლებლობას აძლევს მარკეტინგული მიზნებისთვის სარეკლამო სახეების ციფრული კლონები გამოიყენონ, აიძულონ პოლიტიკოსები, გააჟღერონ მათთვის შეუსაბამო მოსაზრებები და ა.შ. DeepFake ტექნოლოგია ერთი მხრივ შესაძლებლობაა, მეორე მხრივ კი საფრთხე. ახლა კი მისი დახმარებით პირდაპირ ეთერში, რეალურ დროში შეგიძლიათ იმად იქცეთ, ვინც გსურთ. რა თქმა უნდა, ვგულისხმობთ ციფრული გამოსახულებისა და ხმის დონეზე სხვა ადამიანად ქცევას.

DeepFaceLive — ასე ჰქვია ახალ, ღია წვდომის AI პროგრამულ უზრუნველყოფას, რომელიც ვიდეოკონფერენციების პლატფორმებზე თქვენს სახეს პირდაპირ ეთერში აქცევს რომელიმე ცნობილი ადამიანის სახედ. ხელსაწყო Iperov-ის სახელით ცნობილი რუსი დეველოპერის მიერ შეიქმნა და როგორც ჩანს, სტრიმერები მას უკვე იყენებენ. მაგალითად, ქვემოთ მოცემულ ვიდეოში, ერთ-ერთი ტიკტოკერი DeepFaceLive-ის მუშაობას გვიჩვენებს, როცა ტერმინატორად იქცევა.

რა თქმა უნდა, ეს ერთგვარი ცდუნებაა ადამიანებისთვის, რომლებიც პირდაპირ ეთერში ხშირად გადიან. მას ეთიკური კითხვები მოსდევს და პოტენციურად კრიმინალური ელფერიც დაჰკრავს. სხვა რომ არაფერი, ხელსაწყო, რომელიც ერთი შეხედვით სახალისოა, არასწორ ხელში აღმოჩენის შემთხვევაში, დიდი შანსია რომ ძალიან საშიშ ინსტრუმენტად იქცეს.

"ბევრი დაინახავს DeepFaceLive-ს როგორც გასართობ ინსტრუმენტს Twitch-ის პირდაპირი ეთერებისთვის თუ აბსურდული TikTok ვიდეოებისთვის, მაგრამ ჩემმა კვლევამ DeepFake-ების კუთხით ცხადად აჩვენა, რომ უამრავი სხვა ადამიანია, რომელიც მის არასწორ მოხმარებაზე ფიქრობს. ამან შეიძლება მიგვიყვანოს როგორც სრულწლოვანი სტრიმერების მხრიდან ცნობილი ადამიანების სახით წარმოჩენასთან, ისე ბიომეტრიულ დონეზე, სხვა ადამიანად თავის გასაღებასთან. მაგალითად, სახის ამოცნობის სისტემების მოტყუებასთან", — თქმა ჰენრი ადჯერმა, AI კომპანია Deeptrace-ის კომუნიკაციებისა და კვლევის ანალიზის მიმართულების ხელმძღვანელმა, Daily Dot-თან საუბრისას.

ასე რომ, გართობის მიღმა, ეს შეიძლება მნიშვნელოვანი რისკი იყოს, რომელიც ზოგადად ყველა ტიპის DeepFake ხელსაწყოს ახლავს ხოლმე.