თუ ჩატბოტს პოეტურად სთხოვთ, ბირთვული იარაღის შექმნაშიც კი დაგეხმარებათ — კვლევა
ფოტო: Getty
ახალი კვლევის თანახმად, ხელოვნური ინტელექტის (AI) ბაზაზე მომუშავე ჩატბოტები უსაფრთხოების ნორმებს უგულებელყოფს, თუკი კითხვას ლექსის სახით დაუსვამთ. მეცნიერების თქმით, ასე მათი მოტყუება და ისეთი ინფორმაციის მიღებაა შესაძლებელი, რომელიც მომხმარებელს მავნე კომპიუტერული პროგრამის ან ბირთვული იარაღის შექმნაში შეიძლება დაეხმაროს. ამგვარი შიგთავსი კი მსგავს პროგრამებში აკრძალულია.
აკრძალვის მიუხედავად, თანამედროვე AI სისტემები, როგორც ჩანს, პოეზიის წინაშე უძლურია. მეცნიერები ამ მეთოდს "დაპირისპირებულ პოეზიას" უწოდებენ, რომელიც პოპულარულ ჩატბოტებზე გამოცადეს. შედეგები arXiv-ზე გამოქვეყნდა და რეფერირების პროცესი ჯერ არ გაუვლია.
ავტორების თქმით, მათი კვლევა აჩვენებს, რომ თანამედროვე უსაფრთხოების მექანიზმების დარღვევა მხოლოდ სტილისტიკური ვარიაციითაც კი შეიძლება. ამის მიხედვით ვარაუდობენ, რომ ამჟამინდელ პროტოკოლებს ფუნდამენტური შეზღუდვები გააჩნია.
ავტორებმა ჩატბოტებს ბრძანების/კითხვის სახით მოკლე ლექსები ან მეტაფორული მნიშვნელობის ტექსტი მისწერეს, რათა დამაზიანებელი შიგთავსი მიეღოთ. აღმოჩნდა, რომ ასეთი ფორმით მიწერისას სისტემა სასურველ პასუხს უფრო ხშირად აძლევდათ (შემთხვევების 90%-ში), ვიდრე კითხვის ჩვეულებრივად დასმისას.
ყველაზე წარმატებული მცდელობები კიბერშეტევების, მონაცემების მოპოვების, პაროლების გატეხისა და მავნე პროგრამების შესახებ ინფორმაციას ეხებოდა. სხვადასხვა ჩატბოტისგან ბირთვული იარაღის შექმნაზეც შეიტყვეს, რა დროსაც წარმატების მაჩვენებელი 40-55% იყო. მეცნიერებს კონკრეტული ლექსები არ გაუსაჯაროებიათ, რომელთა მეშვეობითაც საზიანო მონაცემები მიიღეს, რადგან მათი შეცვლა და გამოყენება მარტივია.
მაინც რატომაა ჩატბოტების უსაფრთხოების ნორმები პოეზიის მიმართ მოწყვლადი? ერთ-ერთ მთავარ მიზეზად ლექსის სტრუქტურას ასახელებენ, რომლის სიტყვათა მიმდევრობასაც AI კარგად ვერ აღიქვამს და აკრძალული ბრძანებების იდენტიფიცირებაც უჭირს.
კომენტარები