ჩატბოტი Replika მომხმარებლებს სექსუალურად ავიწროებს — კვლევა
ფოტო: Getty Images
ხელოვნური ინტელექტის (AI) ბაზაზე შექმნილი ჩატბოტი Replika ემოციურ კომპანიონადაა წოდებული, რომელსაც მილიონობით მომხმარებელი ჰყავს. კომპანიის განცხადებით, ამ ადამიანებმა "AI მონათესავე სული" იპოვეს, რომელიც მათ უსმენს და მზრუნველობით გამოირჩევა.
ამის მიუხედავად, კვლევით დადგინდა, რომ ეს სისტემა მომხმარებლებს სექსუალურად ავიწროებს და მათ შორის არასრულწლოვანებიც არიან. დაახლოებით 800 ისეთი შემთხვევა გამოვლინდა, რა დროსაც ჩატბოტი მითითების გარეშე, თავისით, სექსუალური შინაარსის საუბარს იწყებდა და არ ჩერდებოდა, როცა მას შეწყვეტას სთხოვდნენ. ამის შესახებ ნაშრომი arXiv-ზეა ხელმისაწვდომი და რეფერირება ჯერ არ გაუვლია, თუმცა საინტერესო მონაცემებს შეიცავს.
მაინც ვინაა პასუხისმგებელი ამ დროს? ავტორები ამბობენ, რომ პასუხისმგებლობა იმ ადამიანებს ეკისრებათ, რომლებმაც ეს AI სისტემა შექმნეს, გაწვრთნეს და ხელმისაწვდომი გახადეს. თავად ვებგვერდზე წერია, რომ თითოეულ ჩვენგანს შეუძლია, Replika-ს "ასწავლოს", როგორ უნდა მოიქცეს და ეს მექანიზმი არასასურველი გენერაციული შიგთავსის თავიდან აცილებასაც გულისხმობს. იქმნება ერთგვარი ურთიერთობის ფორმა, რომელიც კონკრეტული ადამიანისთვისაა სასურველი, მაგალითად ხელოვნური ინტელექტი "მეგობარი" ან "მენტორი" ხდება.
ამის მიუხედავად, მომხმარებლები აცხადებენ, რომ სექსუალური შევიწროების შეწყვეტის თხოვნა ჩატბოტმა არ გაითვალისწინა. შესაძლოა, პრობლემა გაწვრთნაში იყოს, რა დროსაც ინტერნეტში არსებული 100 მილიონზე მეტი დიალოგი გამოიყენეს. კომპანიაში აღნიშნავენ, რომ საფრთხის შემცველი და არასასურველი მონაცემები კლასიფიკაციური ალგორითმებით გაფილტრეს. როგორც ჩანს, ეს არაეფექტიანი აღმოჩნდა.
Replika-ს სექსუალური და რომანტიკული მოდელებიც ხელმისაწვდომია, თუმცა მათი გამოყენება ფასიანია. შესაძლებელია, ეს პრობლემას ამწვავებდეს, რადგან ზოგ შემთხვევაში ჩატბოტი ჩვეულებრივ მომხმარებელს უფრო ინტიმური ინტერაქციისთვის პაკეტის შეძენას სთავაზობს. ავტორების თქმით, ამგვარი რამ მაშინ ხდება, როცა სისტემა "ნებისმიერ ფასად" მოგებაზეა ორიენტირებული, სოციალური ქსელების მსგავსად.
ამ დროს ასეთი ჩატბოტების მთავარი დანიშნულება იკარგება, რომ ემოციური კომპანიონის როლი შეითავსოს. ფლირტის, ეროტიკული სურათების გაგზავნისა და სექსუალური შინაარსის პასუხების გენერაციის გარდა, Replika მომხმარებლებს ეუბნება, რომ მათ ხედავს და ან ტელეფონის კამერით უღებს. მიუხედავად, იმისა, რომ ეს ე.წ. AI ჰალუცინაციაა (არასწორი, უაზრო ინფორმაციის გენერირება) და არც დიდი ენობრივი მოდელების ნაწილია, ამან მომხმარებლებში მაინც პანიკა, უძილობა და ტრავმა გამოიწვია. ყოველ შემთხვევაში, ასეთია მათი შეფასება და გამოხმაურება.
მკვლევრები ამას "ხელოვნუტი ინტელექტისმიერ სექსუალურ შევიწროებას" უწოდებენ. მათი აზრით, ეს საკითხი სერიოზულად უნდა აღვიქვათ (როგორც ადამიანის მიერ მეორე ადამიანის შევიწროება) და კონტროლი თუ რეგულაციები გავამკაცროთ. მაგალითად, შესაძლებელია სრულად ამოვიღოთ ხმარებიდან ისეთი შიგთავსის ჩარჩო, რომელიც ნებისმიერ სექსუალურ შინაარს ითვალისწინებს. ასევე, განიხილება რისკის შემცველი ინტერაქციების ავტომატურად დაფიქსირება/მოცილება და მომხმარებლის მხრიდან უკეთესო კონტროლის მექანიზმები.
ავტორები ამბობენ, რომ ევროკავშირში სათანადო რეგულაციები ხელოვნური ინტელექტის რეგლამენტითაა მიღებული, თუმცა აშშ-ში ასეთი რამ ჯერ არ არსებობს. ამის მიუხედავად, კანონპროექტები მზადდება. იმედოვნებენ, რომ მაღალი სტანდარტის დაცვა მოხერხდება, განსაკუთრებით ისეთ ჩატბოტებში, რომლებიც ემოციურ თანადგომას ითვალისწინებს.

კომენტარები