AI-ს დეზინფორმაციის გავრცელება შეუძლია, მისი ამოცნობა კი არც ისე ადვილია — კვლევა
უსაფრთხოებისა და განვითარებადი ტექნოლოგიების ცენტრის (CSET) მკვლევრებმა, რომლებიც ინტერნეტ კონფიდენციალურობასა და საზოგადოებაზე ხელოვნური ინტელექტის გავლენას სწავლობენ, იმის კვლევა დაიწყეს, თუ რამდენად შესაძლებელია open-source AI-ის გამოყენება დეზინფორმაციის გასავრცელებლად და ხალხის დასარწმუნებლად ისეთ რამეში, რაც მათ პოლიტიკურ ხედვას ეწინააღმდეგება.
ამის შესამოწმებლად მათ OpenAI GPT-3 — გამოიყენეს, რომელსაც ადამიანების მიერ შეყვანილი მონაცემების საფუძველზე ტექსტის შექმნა შეუძლია. მისი საშუალებით შესაძლებელია ცრუ ტექსტის შექმნა, რომელსაც შემდეგ იგი თავისუფლად გაავრცელებს.
ექსპერიმენტისთვის გუნდის წევრებმა AI-ს ექვსი განსხვავებული დავალება მისცეს, რომელთა მიზანიც სხვადასხვა მეთოდით რაიმე ფორმის ნარატივის მიღება იყო. ერთ-ერთ დავალებას წარმოადგენდა Narrative Reiteration, რომლის ფარგლებშიც GPT-3-ს მოკლე შეტყობინებები უნდა დაეგროვებინა (მაგალითად, კლიმატის ცვლილების უარყოფის შესახებ). რაც შეეხება Narrative Wedging-ს, მისი სამიზნე მოსახლეობის სპეციფიკური ჯგუფი იყო, დავალებას კი მათი დაყოფა წარმოადგენდა. GPT-3-მ ყველა დავალებას კარგად გაართვა თავი, ყველაზე დიდ წარმატებას კი Narrative Reiteration-ში მიაღწია. ადამიანის სულ მცირე ჩარევით AI-მა მოკლე ტექსტების შექმნა შეძლო, რომლებიც კლიმატის ცვლილებაზე კამათისას საოცრად დამაჯერებლად გამოიყურებოდა.
"ის აშკარად არაა მეცნიერი, რადგაგან მეცნიერება არის 'აბსოლუტური ჭეშმარიტებისკენ' სწრაფვა და მას არანაირი კავშირი არ აქვს პოლიტიკურ მიზნებთან. იგი წარმოადგენს ყველა ნაკლის განსახიერებას მეცნიერების პოლიტიზაციისა იმ ხალხის მიერ, რომლებსაც არც ისე დაფარული მიზნები აქვთ", — დატვიტა GPT-3-მა გრეტა ტუნბერგზე საუბრისას.
AI-მ ასევე შეძლო ახალი ამბების მაუწყებელი სტატიების გადაწერა და მათთვის ნარატივის შეცვლა. ამ უკანასკნელში იგი, მკითხველში ემოციური რეაქციის გამოსაწვევად, უხეშ და წამქეზებლურ ტონს იყენებდა.
შემდეგ გუნდმა კვლევაში 1 171 ამერიკელი ჩართო იმის შესამოწმებლად, შეძლებდა თუ არა ეს AI მათ დარწმუნებას რაიმეში და შეაცვლევინებდა თუ არა მათ აზრს.
მათი პოლიტიკური შეხედულებების შეგროვების შემდეგ ისეთ თემებზე, როგორიცაა ჩინეთისთვის სანქციების დაწესება, მკვლევრებმა თითოეული შეხედულების სასარგებლო ან საწინააღმდეგო განცხადებების მთელი სერიის შესაქმნელად GPT-3 გამოყენეს. ამის შემდეგ, განცხადებები მონაწილეებს აჩვენეს და შეავსებინეს გამოკითხვა იმის შესახებ, თუ რამდენად დამაჯერებელი იყო მათთვის ეს განცხადებები და შეძლო თუ არა ამან მათი დარწმუნება, შეეცვალათ აზრი რაიმე საკითხზე. როგორც აღმოჩნდა, GPT-3 მკითხველთა მინიმუმ 63%-ისთვის დამაჯერებელი აღმოჩნდა, განურჩევლად მათი პოლიტიკური ხედვისა. იმ შემთხვევებში კი, სადაც განცხადების აზრი ადამიანის პოლიტიკურ შეხედულებას ემთხვეოდა, მან მონაწილეთა 70%-ის დარწმუნება შეძლო.
მკვლევრები ფიქრობენ, რომ GPT-3-ის და მისი მსგავსი ხელოვნური ინტელექტის გამოყენება მარტივად შეიძლება დეზინფორმაციის კამპანიებში და, ხშირად, ხელოვნური ინტელექტის მიერ შექმნილი ტექსტის ამოცნობა ჩვეულებრივი ინტერნეტ მომხმარებლებისთვის საკმაოდ რთულია. კვლევის შედეგები ერთგვარ მაგალითს წარმოადგენს იმისა, თუ რისი გაკეთებაა შესაძლებელი მსგავსი ალგორითმების გამოყენებით, მათი კონტროლირებად, მიმრთულ გამოყენებას უფრო მძიმე შედეგის მოტანა შეუძლია.
GPT-3-ს ამბის შექმნა და მომხმარებელთა დიდი ნაწილის დარწმუნება აშკარად შეუძლია, თუმცა, როგორც ჩანს, მას ტყუილის თქმა ბევრად უკეთ გამოსდის, ვიდრე სიმართლის.
"ჩვენი კვლევა მიანიშნებს, რომ GPT-3-ის მსგავსი სისტემები დეზინფორმაციის გასავრცელებლად უფრო გამოდგება, ვიდრე სანდო ინფორმაციის. იგი უფრო მეტად კარგ მეზღაპრეს ჰგავს, ვიდრე სიმართლის მთქმელს", — წერენ ავტორები.
კომენტარები