ხელოვნური ინტელექტის ისტორია და მომავალი: პირველი ნეირონული ქსელიდან AGI-მდე — ინტერვიუ ანილ ანანთასვამისთან
ანილ ანათასვამი ინდოელი კომპიუტერული ინჟინერი და სამეცნიერო ჟურნალისტია. The New Scientist-ის ყოფილი რედაქტორისა და მრავალი ჯილდოს მფლობელის ბოლო წიგნი "რატომ სწავლობენ მანქანები: თანამედროვე AI-ის ელეგანტური მათემატიკა" ნახევრად პოპულარულ სტილში გვიყვება ხელოვნური ინტელექტის მათემატიკურ საფუძვლებისა და ისტორიის შესახებ. ნაშრომმა დარგის მოწინავე მკვლევრების ფართო აღიარება და დადებითი შეფასებები დაიმსახურა.
ანილი ამჟამად მასაჩუსეტსის ტექნოლოგიური ინსტიტუტის Knight Science Journalism-ის სტიპენდიატია. ასევე, იგი მიწვეულია კალიფორნიის უნივერსიტეტის (სანტა-კრუზი) სამეცნიერო წერის პროგრამაში და ასოცირებულია ბანგალორის ბიოლოგიური მეცნიერებების ეროვნულ ცენტრთან. იგი მიწვეული ავტორია მეცნიერებისა და ფიზიკის თემებზე ისეთ გამოცემებში, როგორიცაა Scientific American, PNS Front Matter, Nature, Nautilus, The Wall Street Journal, Discover და Literary Review.

ფოტო: TED
— ანილ, თქვენი წიგნი გამოირჩევა იმით, რომ ის აერთიანებს როგორც ხელოვნური ინტელექტის სოციალურ ისტორიას, ასევე მათემატიკას. ზოგადად, ხელოვნური ინტელექტის შესახებ დაწერილი წიგნები უმეტესად ან ტექნიკური და მათემატიკაზე ორიენტირებულია, ან მხოლოდ ისტორიულ ასპექტს ეხება. თქვენი წიგნი ორივეს აერთიანებს. ცხადია, ამ ფორმატში ვერ განვიხილავთ მათემატიკას საკმარისი სიღრმით, მაგრამ მსურს საუბარი დავიწყოთ სხვადასხვა მათემატიკური დისციპლინების როლით. ჩვენ ხელოვნურ ინტელექტს თანამედროვე ფენომენად აღვიქვამთ, მაგრამ, როგორც თქვენ აღნიშნეთ წიგნში, მისი ფესვები მოდის ბეიზიანური სტატისტიკიდან, რომელიც XVIII საუკუნეში განვითარდა, კალკულუსი კი XVII საუკუნეში გაჩნდა და ასე შემდეგ. შეგიძლიათ მოკლედ მიმოიხილოთ ხელოვნურ ინტელექტში შეტანილი სხვადასხვა მათემატიკური წვლილი? რამდენად ძველია ისინი, საიდან მოდის და რომელია ყველაზე მნიშვნელოვანი თანამედროვე AI-სთვის?
ძირითადი მათემატიკური დისციპლინები, როგორც თქვენ თქვით, საუკუნეებს ითვლის. კალკულუსი ნიუტონმა და ლაიბნიცმა განავითარეს, ბეიზის ალბათობის თეორია თომას ბეიზმა შეიმუშავა XVII საუკუნეში. წრფივი ალგებრაც საუკუნეების განმავლობაში ვითარდებოდა, და მისი ტექნიკების განვითარებაში ბევრმა ადამიანმა შეიტანა წვლილი. ვფიქრობ, თუ ვინმე ცდილობს მანქანური სწავლების საფუძვლების გაგებას, საკმარისია კალკულუსის, ალბათობის თეორიისა და სტატისტიკის საფუძვლების ცოდნა, ასევე გარკვეული წარმოდგენა წრფივ ალგებრაზე – ძირითადად, ვექტორების და მატრიცების გამრავლებაზე და იმაზე, თუ რას ნიშნავს ეს გარდაქმნები ვექტორულ სივრცეებში.
თუ ამ სამ დისციპლინაში საფუძვლიანი ცოდნა გაქვთ, მანქანური სწავლების ძირითადი პროცესების გაგება უკვე კარგად შეგიძლიათ. თუმცა, ეს სამი დისციპლინა გაცილებით ძველია. ისინი ხელოვნური ინტელექტისთვის არ შექმნილა, უბრალოდ, მათემატიკური დისციპლინები და ტექნიკები იყო. რაც შეეხება თავად მანქანური სწავლების ისტორიას, ვფიქრობ, ის ძალიან კონკრეტული გაგებით ფრენკ როზენბლატის პერცეპტრონით იწყება.
თუ ხელოვნური ნეირონული ქსელების საწყისებს დავუბრუნდებით, 1958-1959 წლებში შეიქმნა პირველი ერთ-შრიანი ნეირონული ქსელები. ეს ხელოვნური ინტელექტის ისტორიის ყველაზე მნიშვნელოვანი გარდამტეხი მომენტი იყო. 1956 წელს გაიმართა დართმუთის კონფერენცია, სადაც ტერმინი "ხელოვნური ინტელექტი" პირველად გაჩნდა და პირველად დაიწყო მუშაობა მანქანების შესაქმნელად, რომლებიც ადამიანივით “იაზროვნებდნენ“.
ისტორიულად, როზენბლატის პერცეპტრონი პირველი მნიშვნელოვანი ეტაპია. მანამდე გვქონდა მაკალოკ-პიტსის ნეირონები, თუმცა ეს მხოლოდ გამოთვლითი ერთეულები იყო – ისინი მონაცემებიდან არაფერს სწავლობდნენ. პერცეპტრონი კი იყო პირველი ხელოვნური ნეირონი, რომელიც მონაცემებზე დაფუძნებით სწავლობდა. თუმცა, პერცეპტრონის აღმოჩენიდან დიდი ხნის განმავლობაში ნეირონული ქსელების კვლევამ განვითარების ტემპი დაკარგა, რადგან მეცნიერებმა აღმოაჩინეს, რომ არ ჰქონდათ მეთოდები მრავალშრიანი ნეირონული ქსელების გასაწვრთნელად.

ორიგინალი პერცეპტრონი
ფოტო: cornell.edu
როზენბლატის ალგორითმი მხოლოდ ერთშრიან ქსელზე მუშაობდა. მარვინ მინსკიმ და სიმურ პაპერტმა დაწერეს წიგნი Perceptrons. მათ ნაშრომში აღწერილია მნიშვნელოვანი მათემატიკური თეორემები, მათ შორის პერცეპტრონის კონვერგენციის მტკიცებულება, რომელიც აჩვენებდა, რომ პერცეპტრონი საბოლოოდ სწორი გადაწყვეტისკენ კონვერგირებს. თუმცა მათ ასევე დაამტკიცეს, რომ ერთშრიანი ნეირონული ქსელი ვერ აგვარებდა არცთუ ისე რთულ არაწრფივ ამოცანებს, მაგალითად, XOR პრობლემას. მათ პირდაპირ არ დაუმტკიცებიათ, მაგრამ თითქოს მიანიშნეს, რომ შესაძლოა, მრავალშრიანი ქსელებიც ვერ ამოხსნის მსგავს ამოცანებს. ეს ვარაუდი მაშინ ბევრმა სერიოზულად მიიღო და ნეირონული ქსელების კვლევა შემცირდა. და მაინც, იყვნენ მეცნიერები, რომლებიც ნეირონული ქსელების მიმართ რწმენას არ კარგავდნენ, მათ შორის ჯეფ ჰინტონი 1960-1970-იან წლებში, თუმცა მათ ჯერ კიდევ არ იცოდნენ, როგორ უნდა გაეწვრთნათ მრავალშრიანი ქსელები.
ამ პერიოდში მანქანური სწავლების სხვა მიმართულებები ვითარდებოდა. ბევრი მიიჩნევს, რომ მანქანური სწავლება მხოლოდ ღრმა ნეირონულ ქსელებთან ასოცირდება, მაგრამ 1960-1990-იან წლებში ნეირონული ქსელების მიღმა უამრავი მნიშვნელოვანი მეთოდი გაჩნდა. მაგალითად, 1960-იანებში შეიქმნა K-nearest neighbor ალგორითმი, შემდეგ გაჩნდა ბეიზის კლასიფიკატორები – ბეიზის ოპტიმალური კლასიფიკატორი და Naïve Bayes კლასიფიკატორი. 1990-იანებში კი ერთ-ერთი ყველაზე მნიშვნელოვანი ნეირონული ქსელებისგან დამოუკიდებელი მეთოდი იყო support vector machines (SVM). SVM-სთან ერთად გამოჩნდა კერნელის მეთოდები (kernel methods), რომლებიც მონაცემებს დაბალგანზომილებიანიდან მაღალგანზომილებიან სივრცეში პროეცირების საშუალებას იძლეოდა, სადაც მონაცემთა გარჩევა უფრო ადვილი ხდებოდა. და მაინც, რეალურად, ყველა გამოთვლა ისევ დაბალგანზომილებიან სივრცეში სრულდებოდა.

ფოტო: youtube
რაც შეეხება ნეირონულ ქსელებს, მათთვის გადამწყვეტი პროგრესი 1980-იანებში დაიწყო. ჯონ ჰოპფილდმა, რომელიც ცოტა ხნის წინ ნობელის პრემიის ლაურეატი გახდა, 1982 წელს შექმნა ჰოპფილდის ქსელი (Hopfield Network), რომელიც მეხსიერების შენახვა-აღდგენის რეკურენტული ნეირონული ქსელია. 1986 წელს კი რუმელჰარტმა, ჰინტონმა და უილიამსმა გამოაქვეყნეს უკუგატარების (backpropagation) ალგორითმის შესახებ ნაშრომი, რომელიც გვიჩვენებდა, როგორ შეგვიძლია მრავალშრიანი ნეირონული ქსელების გაწვრთნა გრადიენტული დაშვების გამოყენებით.

ნეირონული ქსელები
ფოტო: deepai.org
1986 წლის შემდეგ უკვე ვიცოდით, როგორ გაგვეწვრთნა ღრმა ნეირონული ქსელები, მაგრამ ამას მაინც არ მოჰყოლია დიდი ბუმი, რადგან მალევე ნათელი გახდა, რომ საკმარისი მონაცემების გარეშე ნეირონული ქსელები კარგად ვერ სწავლობდა. მალევე იან ლეკუნმა შექმნა პირველი კონვოლუციური ნეირონული ქსელი (CNN), რომელიც სპეციალურად გამოსახულებების კლასიფიკაციისთვის იყო ოპტიმიზებული. თუმცა, 1990-იანებში პრობლემა კვლავ მონაცემების სიმცირე იყო. 2000-იანების ბოლოს ვითარება შეიცვალა, როდესაც ფეი-ფეი ლიმ და მისმა გუნდმა შექმნეს ImageNet მონაცემთა ბაზა, რომელიც პირველი მასშტაბური გამოსახულებების მონაცემთა ნაკრები იყო. ამავე დროს, მკვლევრებმა გააცნობიერეს, რომ GPU-ებით შესაძლებელი იყო ღრმა ნეირონული ქსელების ეფექტურად გაწვრთნა.
ამ ყველაფრის ერთობლიობით 2012 წელს ჯეფ ჰინტონმა, ილია სასკევერმა და ალექს კრიჟევსკიმ შექმნეს AlexNet, რომელიც პირველი ღრმა ნეირონული ქსელი გახდა, რომელმაც ImageNet კონკურსი მოიგო. ეს იყო გადამწყვეტი მომენტი – უკვე საკმარისი მონაცემები გვქონდა, საკმარისი გამოთვლითი რესურსი (GPU-ები) და საკმარისი ალგორითმული ცოდნა ღრმა ნეირონული ქსელების ეფექტურად გაწვრთნისთვის. ამ მომენტიდან ნეირონული ქსელების კვლევამ და განვითარებამ სწრაფი ტემპით აიღო გეზი. ყოველი ორი წლის განმავლობაში ვხედავდით მნიშვნელოვან წინსვლას, რის შედეგადაც დღეს დიდი ენობრივი მოდელების ეპოქაში ვართ. მაგრამ ეს ყველაფერი სწორედ იმ განვითარებების პირდაპირი გაგრძელებაა, რომელიც ათწლეულების განმავლობაში ხდებოდა.
— თანამედროვე დიდი ენის მოდელები, მათ შორის DeepSeek და ChatGPT, შეიცავს ე.წ. "აზროვნების ჯაჭვის" (Chain of Thought) მოდელს. რა არის განსაკუთრებული ამ აზროვნების ჯაჭვის ალგორითმში? როგორ განსხვავდება ეს მოდელი ჩვეულებრივი ტრანსფორმერების ალგორითმის ფუნქციონირებისგან ენის მოდელების კონტექსტში?
როცა პირველი GPT კლასის ენობრივი მოდელები გამოჩნდა — GPT-2, GPT-3, GPT-3.5 და სხვა — ხალხმა განსაკუთრებით GPT-3.5-თან მუშაობისას შენიშნა საინტერესო ტენდენცია: თუ მოდელს უსვამდი მათემატიკურ ან ზოგადად ლოგიკური ნაბიჯების შემცველ კითხვას, ის ხშირად არ გაძლევდა სწორ პასუხს. მაგრამ თუ მოდელს კითხვის დასმის შემდეგ რაიმეს დამატებით ეტყოდი, მაგალითად, "იფიქრე ნაბიჯ-ნაბიჯ" ან მოუყვანდით გადაჭრილ ამოცანას, სადაც ნაჩვენები იქნებოდა, როგორ უნდა გადაჭრილიყო მსგავსი პრობლემა — სხვა სიტყვებით, თუ უჩვენებდით თქვენი აზროვნების ჯაჭვს — ამის შემდეგ, როდესაც ახალ კითხვას დაუსვამდით, მოულოდნელად აღმოჩნდებოდა, რომ მოდელი გაცილებით უკეთ უპასუხებდა.
ეს მეთოდი GPT-2-ზე არ მუშაობდა. თუმცა, როდესაც მოდელები მასშტაბურად გაიზარდა — მათ შორის პარამეტრების რაოდენობით, მონაცემთა მოცულობითა და გამოთვლითი რესურსების გამოყენებით, მან ასეთი ქცევა გამოავლინა. სწორედ ამას ვუწოდებთ "აზროვნების ჯაჭვის" (Chain of Thought) დასაბუთებას. ადრეული დიდი ენობრივი მოდელების (მაგალითად, GPT-3.5, GPT-4, Google-ის ზოგიერთი მოდელი, Anthropic-ის Claude და სხვ.) შემთხვევაში, აზროვნების ჯაჭვის პრომპტინგი მომხმარებლის მიერ ხდებოდა — მომხმარებელს თავად უნდა მიეწოდებინა ეტაპობრივი ინსტრუქციები ან წარმოედგინა აზროვნების ჯაჭვი პრომპტში. რაც გააკეთეს უფრო ახალმა მოდელებმა, როგორიცაა OpenAI-ის O1, O3 და DeepSeq-ის R1, R0, არის ის, რომ ადამიანისთვის ამ პროცესის გადაბარების ნაცვლად, მათ შიგნით უკვე ჩაშენებული აქვთ მექანიზმები, რომლებიც საშუალებას აძლევთ, პრომპტის მიღების შემდეგ დამოუკიდებლად წარმოქმნან სხვადასხვა აზროვნების ჯაჭვი და შეისწავლონ ამ ალტერნატიული მიდგომების სივრცე.
— რამდენიმე მეცნიერი, მათ შორის იან ლეკუნი, ამტკიცებს, რომ მიუხედავად იმისა, რომ მთელი ეს AI-ს რბოლა დიდ ენობრივი მოდელების ირგვლივ ტრიალებს, თუ ჩვენ გვინდა AGI-ის (ხელოვნური ზოგადი ინტელექტის) განვითარება, დიდი ენობრივი მოდელები არ არის სწორი მიმართულება. ეთანხმებით ამ მოსაზრებას, რომ შესაძლოა ჩვენ ზედმეტად ვფოკუსირდებით დიდ ენობრივ მოდელებზე და არსებობს სხვა უკეთესი მიმართულებები?
დიახ, ვფიქრობ, რომ ეს სრულიად შესაძლებელია, რადგან თუ დიდ ენობრივ მოდელებს და ჩვენს ტვინს შევადარებთ, არსებობს რამდენიმე ძალიან მნიშვნელოვანი განსხვავება. ერთ-ერთი ეს არის მონაცემების რაოდენობა. ხელოვნურ ინტელექტს დასწავლისთვის ბევრად მეტი მონაცემი სჭირდება ვიდრე ჩვენ ტვინს. იმის გათვალისწინებითაც, რომ ადამიანის ტვინი ასობით მილიონი წლის განმავლობაში ევოლუციას განიცდიდა, მაშინაც კი, LLM-ები უბრალოდ ძალიან არაეფექტურია მონაცემების დამუშვების მხრივ. ასე რომ, რაღაც ხდება ჩვენს ტვინში, რაც თვისებრივად განსხვავდება იმისგან, რასაც LLM-ები აკეთებენ. ამასთან, ამ ეტაპზე რთულია თქმა, თუ დავამზადებთ ისეთ LLM-ებს, რომლებიც 100%-ით დარწმუნებულები იქნება თავის პასუხებში. ამავე დროს, გვაქვს ჰალუცინირების, ანუ ფაქტობრივად არასწორი პასუხების გაცემის პრობლემა ისე, თითქოს სწორი პასუხია, რომელიც არ ვიცით როგორ შეიძლება გადაიჭრას გარეგანი ვერიფიკაციის გარეშე, ამავე დროს ჩვენი ტვინები უაღრესად ენერგოეფექტურია, ენის მოდელების კი დიდი ოდენობით ენერგიას მოიხმარს.
თუ ჩვენს ტვინს ხელოვნური ზოგადი ინტელექტის მაგალითად ავიღებთ, ცხადია რომ დიდი ენის მოდელი საკმარისი არაა და გვჭირდება ინოვაცია, რომელიც სავარაუდოდ ნეირომეცნიერებიდან წამოვა, მაგრამ ჯერ არ ვიცით როგორ შევქმნათ ასეთი ხელოვნური სისტემა.
— ნეირომეცნიერება ამტკიცებს, რომ ტვინი მუშაობს როგორც ბეიზიანური განახლების მანქანა. თავისუფალი ენერგიის პრინციპი და სხვა თეორიები ნეირომეცნიერებაში ამტკიცებს, რომ ტვინი აღიქვამს ბეიზიანური ალგორითმის მსგავსად. თუმცა ამაში ბოლომდე დარწმუნებული არ ვარ, ხელოვნური ნეირონული ქსელიც რაღაც თვალსაზრისით ჰგავს ტვინს, მაგრამ არის კი ბეიზიანური სტატისტიკა საბოლოო პარადიგმა?
ვართ თუ არა ჩვენ ახლოს იმის აღმოჩენასთან, თუ რა ალგორითმია, რომელითაც ჩვენი ტვინი სწავლობს? რთულია თქმა, რამდენად ახლოს ვართ, რადგან, როგორც თქვი, იდეა, რომ ტვინი არის ბეიზიანური ჩასწორების სისტემა, საკმაოდ ძლიერი პარადიგმაა ამ მომენტში. მაგრამ ამისთვის არ არსებობს მყარი მტკიცებულება. ამიტომ, ძალიან რთულია თქმა, რამდენად ახლოს ვართ იმის გაგებასთან, თუ როგორ მუშაობს ტვინი. მაგრამ აშკარაა, რომ ტვინში ხდება რაღაც ისეთი, რაც არ ხდება დიდ ენის მოდელებში. მაგალითად, ტვინში არსებობს ბევრი რეკურენტული კავშირი ნეირონებს შორის და მათი რაოდენობა აღემატება feedforward ქსელების რაოდენობას. დიდი ენის მოდელებს მეტწილად Feedforward ნეირონული ქსელებისგან შედგება, გარკვეული რეკურენტულობა ჩაშენებულია თანამედროვე მოდელებში, მაგრამ ეს გარეგანი დამატებითი მოდულებია. გარეგანი ალგორითმული რეკურენტულობა უფროა, ვიდრე ნეირონული ქსელის არქიტექტურის ნაწილი.

ამ მომენტში ჩვენ არ ვიცით, როგორ გავწვრთნათ რეკურენტული ნეირონული ქსელები ეფექტურად. ჩვენ შეგვიძლია მათი შექმნა, თუმცა ძალიან მცირე ზომის და მათი გაწვრთნა ძალიან რთულია. ამრიგად, პრობლემა გადაუჭრელია. ქსელების დასწავლისთვის ჩვენ უკუგატარებას ვიყენებთ, მაგრამ ტვინი ნამდვილად არ იყენებს უკუგატარებას ნეირონის წონების გასარკვევად. რაღაც სხვა ხდება. ამრიგად, ჩვენ სხვა ალგორითმი გვჭირდება, ლოკალური განახლების მექანიზმი, რომელიც არ იქნება დამოკიდებული შორეულ კავშირებზე. ასე რომ, ბევრი ახალი რამ უნდა აღმოვაჩინოთ ტვინის შესაებ და შესაძლოა, ზოგიერთი ეს განვითარება ერთდროულად მოხდეს. ნეირომეცნიერები აღმოაჩენენ რამეს, რაც დაეხმარება ხელოვნური ინტელექტის მკვლევარებს. ხელოვნური ინტელექტის მკვლევარები აღმოაჩენენ რამეს, რაც დაგვეხმარება ტვინის მოდელირებაში. და ვფიქრობ, ამ ორ სფეროს შორის ახლა საკმაოდ მჭიდრო კავშირი არსებობს, რომ განვითარებები ერთ სფეროში გავლენას ახდენდეს მეორეზე, და პირიქით.
— ხშირად არა მხოლოდ ჩვენი ტვინების, არმაედ ნეირონული ქსელებში მიმდინარე პროცესების გაგება გვიჭირს. ერთ-ერთი საინტერესო ახალი ტენდენცია "ახსნადი ხელოვნური ინტელექტია" (ExplainableAI). თანამედროვე ნეირონული ქსელები შავი ყუთებია. გვაქვს Input და Output, მაგრამ ქსელში მიმდინარე გადაწყვეტილების მიღების პროცესებზე ბევრი არაფერი ვიცით. ისინი ზედმეტად კომპლექსურებია. რამდენად მნიშვნელოვანია ხელოვნური ინტელექტისთვის ეს მიმართულება?
ვფიქრობ, ეს მნიშვნელოვანია იმ გაგებით, რომ რადგან ჩვენ ვაშენებთ ამ სისტემებს და შემდეგ ამ სისტემებს გამოიყენებენ რეალურ ცხოვრებაში ძალიან მნიშვნელოვანი გადაწყვეტილებების მისაღებად, ჩვენ ნამდვილად გვინდა გავიგოთ, როგორც პრაქტიკული კუთხით, როგორ მიიღება ეს გადაწყვეტილებები ამ ნეირონულ ქსელებში, ასევე კვლევითი კუთხითაც. როგორც უკვე ვთქვი, ჩვენ არ გვესმის, როგორ მუშაობს ჩვენი ტვინები და პრობლემა ის არის, რომ ვერ ჩავდგამთ ელექტროდებს თითოეულ ნეირონში. მაგრამ რადგან ახლა გვაქვს ხელოვნური სისტემები, რომლებიც სიმულირებს ნეირონულ ქსელებს, ყოველ შემთხვევაში ძალიან მარტივი ფორმებით, ჩვენ გვაქვს საშუალება დავაკვირდეთ იმას, რაც ხდება ამ ქსელებში. ამიტომ, ეს ასევე არის კვლევითი საკითხი, რომელმაც მოგვიანებით შეიძლება გვითხრას როგორ მუშაობს ჩვენი ტვინები.
თუმცა, არ ვიცი, ინტელექტუალური მანქანების შექმნის მცდელობები აუცილებლად განაპირობებს თუ არა ახსნადი ხელოვნური ინტელექტის პროგრესს. ეს ორი რამ პარალელურად მიმდინარეობს. ამიტომ, ადამიანები, რომლებიც მხოლოდ უფრო და უფრო ჭკვიანი მანქანური სწავლების სისტემების შექმნას ცდილობენ, გააგრძელებენ ამას ხელოვნური ინტელექტის ახსნის მცდელობებისგან დამოუკიდებლად, რადგან ისინი უბრალოდ ამ სისტემების ემპირიულ ქცევას უყურებენ, ამიტომ ხელოვნური ინტელექტის განვითარება გაუსწრებს ხელოვნური ინტელექტის ახსნის მცდელობებს.
— ფიქრობთ, რომ ხელოვნური ზოგადი იტნელექტის, AGI-ს მიღწევა შესაძლებელია უახლოეს მომავალში, თუ ეს ძალიან შორეული მიზანია?
საქმე ისაა, რომ AGI როგორც ტერმინი ძალიან ცუდადაა განსაზღვრული. არ არსებობს ფორმალური განმარტება. ჩვეულებრივ, ეს ნიშნავს ხელოვნურ ინტელექტს, რომელსაც შეუძლია ყველა კოგნიტიური დავალების შესრულება, რომელსაც ადამიანი ასრულებს. მაგრამ, ადამიანი ბევრად მეტია, ვიდრე მხოლოდ კოგნიტიური დავალებები. ჩვენ ვართ განსხეულებული (embodied) აგენტები, და ჩვენი ინტელექტი ხშირად ჩვენი სხეულის ნაწილია. ამიტომ, ვფიქრობ, რომ AGI-ს მიმართულებით ნებისმიერმა მცდელობამ უნდა გაითვალისწინოს ეს ფაქტი. არსებობს საინტერესო განვითარებები რობოტიკაში, საიდანაც შეიძლება წამოვიდეს გარღვევა ამ მიმართულებით. როცა გაქვს ხელოვნური ინტელექტის მქონე აგენტი, რომელიც ურთიერთქმედებს რეალურ, ფიზიკურ გარემოსთან. ეს უფრო პერსპექტიულია ამ თვალსაზრისით, ვიდრე ენის მოდელები.
— ბევრი თვლის, რომ ინტელექტი და ცნობიერება ურთიერთკავშირშია. თუმცა, საინტერესო არგუმენტი, რომელიც ანილ სეთის წიგნში წავიკითხე ისაა, რომ ჩვენი ცნობიერი განცდების უმრავლესობა კავშირშია ბიოლოგიასთან, იქნება ეს წყურვილი, შიმშილი, ტკივილი თუ სხვა. როგორ ფიქრობთ, არის ინტელექტი და ცნობიერება პირდაპირ კავშირში? მოიტანს კი ხელოვნური ინტელექტის ექსპონენციალური ზრდა ხელოვნურ ცნობიერებას?
ეს დამოკიდებულია იმაზე, როგორი პერსპექტივა გაქვთ ცნობიერების მიმართ. თუ დუალისტი ხართ, ან თვლით, რომ ბიოლოგია უალტერნატივოა ცნობიერებისთვის, მაშინ იფიქრებ, რომ მანქანები ალბათ არ იქნებიან ცნობიერები. მე პირადად ვფიქრობ, რომ ცნობიერება ჩვენს ტვინებში მიმდინარე კომპუტაციური პროცესების შედეგია. ფაქტი, რომ ცნობიერება სხეულთანაა კავშირში, უბრალოდ იმაზე მეტყველებს, რომ ის ევოლუციის პროდუქტია. მაგრამ თუ ეს არის კომპიუტაციური პროცესის შედეგი, და თუ ეს კომპიუტაციური პროცესი შეიძლება განხორციელდეს სხვა სუბსტრატში, არ არსებობს პრინციპული მიზეზი, რომ ხელოვნური ცნობიერება შეუძლებელი იყოს. თუ მატერიალიზმი სწორია და ცნობიერებაში არაფერია არამატერიალური, ვფიქრობ მანქანებიც რაღაც ეტაპზე ცნობიერები გახდებიან.
— თუ ფუნქციონალიზმი და ფუნქციონალისტური მატერიალიზმი სწორია, პრინციპულად შესაძლებელია ცნობიერი მანქანების არსებობაც და გონების ატვირთვაც?
გონების ატვირთვაზე დარწმუნებული არ ვარ, ეს სხვა უფრო რთული საკითხია, ვინაიდან ჩვენი გონება განსხეულებულია, რთულად წარმოსადგენია კომპუტაციის განცალკევება ჩვენი ტვინებისგან და სხეულებისგან. ტვინი და სხეული ერთი კონტინუუმია და ის იდეა, რომ გონება ტვინიდან სილიკონში შეიძლება ატვირთოთ უფრო მეტად ჰგავს სამეცნიერო ფანტასტიკას, ვიდრე ცნობიერი მანქანების შექმნა.
კომენტარები