ექსპერტები ამბობენ, რომ სურათების მაგენერირებელ AI სისტემებს ზოგი ადამიანი ბავშვების სექსუალური შინაარსის ფოტოების შესაქმნელად იყენებს. რაც ყველაზე საგანგაშოა, ასეთი მასალის გავრცელება მსხვერპლისთვის დახმარების აღმოჩენას ართულებს.

"ბავშვების, მათ შორის ცნობილი მსხვერპლების სურათები მართლაც ბოროტული მიზნით გამოიყენება. მათი იდენტიფიცირება უკვე თივის ზვინში ნემსი პოვნას უტოლდება...

ამ ხელსაწყოებით სარგებლობის გამარტივება ბევრ რამეს ცვლის, ისევე, როგორც რეალიზმი. ეს ყველაფერი სიტუაციას მეტად ართულებს", — აცხადებს მონაცემთა მეცნიერების სპეციალისტი, რებეკა პორტნოფი.

ფოტო: Getty

უკანონო ფოტომასალას დამნაშავეები ისეთ სისტემებს აგენერირებინებენ, როგორიც Stable Diffusion გახლავთ. მასში უსაფრთხოების რამდენიმე პარამეტრი დაცულია, მათ შორის ბავშვთა პორნოგრაფიული მასალის ფილტრიც, მაგრამ მის "მოტყუებას" მაინც ახერხებენ.

ასეთი სურათების გამოვლენა პრობლემურია, რადგან ისინი ახლადაა შექმნილი. რთულია დამნაშავეების პოვნაც, რომლებიც ფორუმებზე ერთმანეთს "ხრიკებს" უზიარებენ. ესაა იმის მაგალითი, თუ როგორ შეიძლება თანამედროვე ტექნოლოგია არასწორი ადამიანების ხელში საშიშ იარაღად იქცეს.

თუ სტატიაში განხილული თემა და ტექნოლოგიების სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში, სადაც ვლაპარაკობთ ტექნოლოგიებზე.