ათწლეულების განმავლობაში, ადამიანები თავიანთ მოწყობილობებს ახასიათებდნენ ისეთი ზმნებით, როგორებიცაა: "ფიქრობს", "იცის" ან "სჯერა" — და, უმეტეს შემთხვევაში, ასეთი ანთროპომორფული აღწერილობები უვნებელია. მაგრამ ჩვენ ახლა შევდივართ ეპოქაში, რომელშიც პროგრამები, ხელოვნური ინტელექტი (AI) და დიდი ენობრივი მოდელები (LLM-ები) საგრძნობლად დაწინაურდა ადამიანის ქცევის მიბაძვაში, მიუხედავად იმისა, რომ ისინი ადამიანის ტვინისგან ფუნდამენტურად განსხვავდება. ამდენად, მათთან საუბრისას, სიტყვები ფრთხილად უნდა შევარჩიოთ.

ასევე იხილეთ: რა არის ChatGPT, რომელზეც ყველა საუბრობს, და შეუძლია თუ არა მას Google-ის ჩანაცვლება?

მიურეი შანაჰანი, კოგნიტიური რობოტიკის პროფესორი ლონდონის იმპერიულ კოლეჯში და მკვლევარი DeepMind-ში, თავის ახალ ნაშრომში სახელწოდებით: "საუბარი დიდ ენობრივ მოდელებზე", გვაფრთხილებს, რომ სერიოზული შეცდომაა, დაუფიქრებლად მივაწეროთ ხელოვნური ინტელექტის სისტემებს ისეთივე ალღო, როგორსაც ადამიანები ერთმანეთთან ურთიერთობისას ვიყენებთ. და იმისათვის, რომ საუკეთესოდ გამოვიყენოთ ხელოვნური ინტელექტის სისტემების გასაოცარი შესაძლებლობები, უნდა გვესმოდეს, როგორ მუშაობს ისინი და თავიდან უნდა ავიცილოთ მათთვის იმ უნარების მინიჭება, რომლებიც არ გააჩნიათ.

ასევე იხილეთ: ღრმა დასწავლის რევოლუციის 10 წელი — აჟიოტაჟი თუ ფუნდამენტური ძვრა

ადამიანები VS დიდი ენობრივი მოდელები

"გასაოცარია, რამდენად ადამიანური შეიძლება იყოს LLM-ზე დაფუძნებული სისტემები და, თანაც, ისინი სწრაფად უმჯობესდება. მათთან გარკვეული დროის განმავლობაში ურთიერთობის შემდეგ, ადვილია, ვიფიქროთ, რომ ისინი ჩვენი მსგავსი გონების მქონე არსებებია", — განუცხადა შანაჰანმა VentureBeat-ს. "მაგრამ ისინი წარმოადგენს ინტელექტის მართლაც უცხო ფორმას, რომლისაც ჩვენ ჯერ ბოლომდე არ გვესმის. ასე რომ, ფრთხილად უნდა ვიყოთ, როდესაც მათ ადამიანურ საკითხებში ვრევთ."

ადამიანური ენის გამოყენება კოლექტიური ქცევის ასპექტია. ჩვენ ვსწავლობთ ენას საზოგადოებასა და გარემომცველ სამყაროსთან ურთიერთობით. ასეთი ინტერაქციები მოიცავს მშობლებსა თუ მეურვეებთან ურთიერთობას, ერთად თამაშს, ნივთებისთვის სახელის დარქმევასა და სხვ. თუმცა, LLM-ები სრულიად განსხვავებულად სწავლობს — იმგვარად, რომ ჩვენს სამყაროში დასახლება არ უწევს.

ასევე იხილეთ: გზა ცნობიერი ხელოვნური ინტელექტისაკენ: მეცნიერებმა ტვინის ახალი მოდელი შექმნეს

LLM-ები მათემატიკური მოდელებია, რომლებიც წარმოადგენს სიმბოლოების სტატისტიკურ განაწილებას ადამიანის მიერ გენერირებული ტექსტის კორპუსში (ეს სიმბოლოები შეიძლება იყოს სიტყვები, სიტყვათა ნაწილები ან პუნქტუაციები). ისინი ქმნის ტექსტს მოთხოვნის ან შეკითხვის პასუხად, თუმცა არა იმგვარად, როგორც ამას ადამიანები აკეთებენ.

შანაჰანს მოჰყავს LLM-ებთან ურთიერთობის მარტივი მაგალითი: "აქ მოცემულია ტექსტის მონაკვეთი. მითხარი, როგორ შეიძლება გაგრძელდეს ეს მონაკვეთი. ადამიანური ენის სტატისტიკის შენეული მოდელის მიხედვით, რა სიტყვებია, სავარაუდოდ, შემდეგი?"

მაგალითების საკმარისად დიდ მოცულობაზე გაწვრთნისას, LLM-ს შეუძლია სწორი პასუხების მოცემა შთამბეჭდავი ტემპით. მიუხედავად ამისა, განსხვავება ადამიანებსა და LLM-ებს შორის ძალზე მნიშვნელოვანია. ადამიანებისთვის ტექსტის სხვადასხვა მონაკვეთს შეიძლება ჰქონდეს განსხვავებული მიმართება ჭეშმარიტებასთან. ჩვენ შეგვიძლია, დავინახოთ განსხვავება ფაქტსა და ფიქციას შორის, როგორიცაა ნილ არმსტრონგის მოგზაურობა მთვარეზე და ფროდო ბეგინსის დაბრუნება შაირში. თუმცა, LLM-ისთვის, რომელიც სტატისტიკურად სავარაუდო წინადადებებს წარმოქმნის, ეს განსხვავებები უხილავია.

ასევე იხილეთ: ჩაანაცვლებს ხელოვნური ინტელექტი მასწავლებლებს? — AI-მ, შესაძლოა, განათლების კონცეფცია ძირეულად შეცვალოს

ამდენად, შანაჰანის აზრით, მომხმარებლებმა საკუთარ თავებს უნდა შეახსენონ, თუ როგორ მუშაობს სინამდვილეში LLM-ები. ეს დაეხმარება დეველოპერებს, თავიდან აირიდონ დიალექტიკური პრობლემა — ფილოსოფიური სიტყვების, "რწმენის", "ცოდნის", "აზროვნებისა" და "თვითის", არასწორი გამოყენება LLM-ებთან კომუნიკაციისას.

ბუნდოვანი ბარიერები

სმარტფონებზე, კალკულატორებზე, ავტომობილებსა და სხვაზე საუბრისას, შეგვიძლია, ანთროპომორფული ენა გამოვიყენოთ. ეს ფორმულირებები მოსახერხებელია კომპლექსური პროცესების აღსაწერად. თუმცა, შანაჰანის აზრით, LLM-ების შემთხვევაში, "რაღაცები შეიძლება ბუნდოვანი გახდეს".

მაგალითად, არსებობს უამრავი კვლევა საინჟინრო ხრიკების შესახებ, რომლებსაც შეუძლია, გააუმჯობესოს LLM-ების მუშაობა რთულ ამოცანებზე. ზოგჯერ, მარტივი წინადადების დამატებას მოთხოვნაზე, როგორიცაა "მოდი, ეტაპობრივად ვიფიქროთ", შეუძლია, გააუმჯობესოს LLM-ის უნარი, დაასრულოს მსჯელობა და დაგეგმოს ამოცანები. შანაჰანის თქმით, ასეთმა შედეგებმა შეიძლება გააძლიეროს "ცდუნება, დავინახოთ [LLM-ები] ადამიანის მსგავსი მახასიათებლებით".

ასევე იხილეთ: ინტერვიუ ChatGPT-სთან — ჩეთბოტი, რომელმაც მსოფლიო აალაპარაკა

მაგრამ, კიდევ ერთხელ, არ უნდა დაგვავიწყდეს განსხვავებები ადამიანურ განსჯასა და LLM-ების მეტაგანსჯას შორის. მაგალითად, თუკი მეგობარს ვკითხავთ, რომელი ქვეყანა მდებარეობს რუანდას სამხრეთით, და ის გვიპასუხებს: "ვფიქრობ, ბურუნდი" — ჩვენ ვიცით, რომ მას ესმის ჩვენი განზრახვა, ცოდნა და ინტერესები. ამავდროულად, მან იცის ჩვენი შესაძლებლობები და საშუალებები (მაგ: რუკის დათვალიერება, Google-ის გამოყენება, სხვებისთვის კითხვა და ა.შ.), რომლითაც მის პასუხს შევამოწმებთ.

თუმცა, როდესაც იმავე კითხვას LLM-ს უსვამთ, ეს მდიდარი კონტექსტი იკარგება. ხშირ შემთხვევაში, გარკვეული კონტექსტი მიწოდებულია მოთხოვნაზე ბიტების დამატებით, მაგალითად: პასუხის სცენარის მსგავს ჩარჩოში ჩასმა, რომელსაც AI ტრენინგის დროს სწავლობს. ეს ზრდის LLM-ს მიერ სწორი პასუხის გაცემის ალბათობას, მაგრამ AI-მ არ "იცის" რუანდას, ბურუნდის ან მათი ერთმანეთთან ურთიერთობის შესახებ.

"იცოდე, რომ ბურუნდის, ალბათ, წარმატებით აღწერს სიტყვები: 'ქვეყანა რუანდას სამხრეთით' — არ არის იგივე, რაც იცოდე, რომ 'ბურუნდი რუანდას სამხრეთითაა'", — წერს შანანი.

ფრთხილად გამოიყენეთ LLM-ები რეალურ აპლიკაციებში

სანამ LLM-ები აგრძელებს პროგრესს, როგორც დეველოპერები, ფრთხილად უნდა ვიყოთ, თუ როგორ ვქმნით აპლიკაციებს მათ საფუძველზე. და როგორც მომხმარებლები, ასევე სიფრთხილით უნდა მოვეკიდოთ იმ საკითხს, თუ რას ვფიქრობთ მათზე. ზოგადად, LLM-ებისა და ხელოვნური ინტელექტის შესახებ ჩვენი აზროვნების ჩარჩოებს შეუძლია, დიდი გავლენა იქონიოს მათ საფუძველზე შექმნილი აპლიკაციების უსაფრთხოებასა და გამძლეობაზე.

ასევე იხილეთ: ფრანკენშტაინი AI: მატყუარა ხელოვნური ინტელექტი და ეთიკური დილემები

LLM-ების პოპულარობისა და ფართო გამოყენების ზრდამ, შესაძლოა, დააყენოს საჭიროება იმისა, რომ გადავიაზროთ, თუ როგორ ვიყენებთ ისეთ ნაცნობ ფსიქოლოგიურ ტერმინებს, როგორებიცაა: "მჯერა", "ვფიქრობ" და სხვ. ამ პროცესში შეიძლება ახალი სიტყვების შემოღებაც დაგვჭირდეს.

"შეიძლება დაგვჭირდეს მათთან ურთიერთობისა და თანაცხოვრების ხანგრძლივი პერიოდი, ვიდრე ზუსტად გავიგებთ, თუ რომელია საუკეთესო გზა მათზე სასაუბროდ", — წერს შანანი. "ამავდროულად, უნდა ვეცადოთ და წინააღმდეგობა გავუწიოთ ანთროპომორფიზმის საყვირის მოწოდებას."

გამომდინარე იქიდან, რომ დიდი ენობრივი მოდელები დღითიდღე იხვეწება და სახეზე გვაქვს ChatGPT, რომელთან ინტერაქციაც საინტერესო, შემეცნებითი და, რაც მთავარია, საკმაოდ ადამიანური ხასიათისაა, მსგავსი ეთიკური დილემების წარმოშობა და იმაზე დაფიქრება, თუ რა ტერმინოლოგიას გამოვიყენებთ LLM-ებთან, ცხადია, ლოგიკურია.

თავად ChatGPT-მ, რომელსაც ვკითხე, რამდენად ფრთხილად უნდა ვიყოთ, როდესაც LLM-ებთან ისეთ სიტყვებს ვიყენებთ, როგორებიცაა "მჯერა" და "ვფიქრობ", მიპასუხა, რომ ეს სიტყვები გამოხატავს მოსაუბრის პირად აზრებს, მაგრამ დიდ ენობრივ მოდელებს ფიქრისა და რწმენის უნარი არ გააჩნია. ისინი უბრალოდ გვაწვდის ინფორმაციას და, შესაბამისად, მათთან საუბრისას, უმჯობესია, მსგავსი სიტყვების გამოყენებისას თავი შევიკავოთ და მხოლოდ ისეთი შეკითხვები დავსვათ, რომლებიც მხოლოდ ფაქტობრივ ინფორმაციას ეხება.

ასე რომ, შემდეგში, როცა ChatGPT-სთან "ჭორაობას" გადაწყვეტთ, გახსოვდეთ, რომ ის თქვენი მეგობარი არ არის.

თუ სტატიაში განხილული თემა და ზოგადად: მეცნიერებისა და ტექნოლოგიების სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში – შემდეგი ჯგუფი.