ბოლო დროს ხელოვნურ ინტელექტზე (AI) დაფუძნებული ინსტრუმენტებით ხშირად იქმნება ისეთი სურათები, რომელთაც რეალურისაგან ვერც კი განასხვავებთ. ამას ფუმფულა თეთრ ქურთუკში გამოწყობილი რომის პაპის სურათიც მოწმობს, რომელიც ახლახან ინტერნეტში ვირუსულად გავრცელდა და უამრავი ჩვენგანი გააცურა. ვიხილეთ დონალდ ტრამპის "დაკავების" ამსახველი ფოტოსურათიც, რომელიც რეალურს ასეთივე სიზუსტით წააგავდა.

აღნიშნული ფოტოები Midjourney-ის მეშვეობით შეიქმნა. ცნობისთვის, ეს ის პროგრამაა, რომლითაც თებერვალში ქვეყნები თუ ქალაქები ქალებად "ვაქციეთ", თუმცა ამ შემთხვევაში ნამუშევრების AI წარმომავლობა სრულებით აშკარა იყო.

საქმე ისაა, რომ ახლახან Midjourney-ის მეხუთე, უახლესი, ვერსია გამოვიდა, რომელიც რეალურთან უაღრესად მიმსგავსებულ სურათებს აგენერირებს. იგი ბოლო დროს არაერთი სიტუაციის გასაყალბებლად გამოიყენეს.

ასევე იხილეთ: ტესტი: გამოიცანი, ხელოვნური ინტელექტის ნახატია თუ ადამიანის

ახლახან გავიგეთ ისიც, რომ აღნიშნული შემთხვევების გახშირების გამო Midjourney-ის AI სურათების გენერატორს უფასოდ ვეღარ გამოვიყენებთ (აქამდე ეს გარკვეული ლიმიტით იყო შესაძლებელი).

თვალი მარტივად ტყუვდება, თუმცა, როგორც წესი, ცოტა დაკვირვება გმართებთ და ასევე მარტივად შენიშნავთ ხოლმე ისეთ დეტალებს, რომლებიც ფოტოს AI წარმომავლობაზე მეტყველებს.

ყურადღება შემდეგ საკითხებზე უნდა გაამახვილოთ:

1. აზელილი დეტალები

AI-ის მიერ გენერირებულ ფოტოებს ყველაზე მარტივად აზელილი დეტალები გასცემს ხოლმე. მაგალითად, კარგად თუ დააკვირდებით, რომის პაპის ქუთუთო და სათვალე ერთმანეთშია შერწყმული.

ფოტო: TIME/Lon Tweeten/@art_is_2_inspire/Instagram

სწორედ ასევეა თითების შემთხვევაშიც — AI ფოტოების გენერატორებს ხელების გენერირება ცუდად გამოსდის და ამგვარი სურათების ამოსაცნობად ეს ძალიან აშკარა ნიშანია. მიუხედავად იმისა, რომ Midjourney-ის უახლეს ვერსიაში ეს ხარვეზი შედარებით გამოსწორებულია, ამ შემთხვევაში პაპის ხელები მაინც გადღაბნილია.

აზელილია თავად ჯვარიც. იგი თითქოს ქურთუკშია მოყოლილი და ჯაჭვის მეორე ნაწილი აკლია — ამის ხილვა ნამდვილ ფოტოებზეც სრულებით შესაძლებელია, თუმცა, სხვა დეტალების გათვალისწინებით, ეს ამ შემთხვევაში არაფერს ნიშნავს.

2. არარეალური ფონი

ერთი შეხედვით შეიძლება ნორმალურად გეჩვენოთ, თუმცა ხელოვნური ინტელექტის მიერ გენერირებულ სურათებში ფონი ხშირად დაბურულია და ტექსტურას უფრო წააგავს.

ყალბი ფოტოსურათი პუტინისა და სი ძინპინის შეხვედრას ასახავს. ფონზე გადღაბნილ კედელსა და სკამს ვხედავთ, პოლიტიკური ფიგურის თავი კი მისი სხეულის ზომას არ შეესაბამება.

ფოტო: APF

ამას გარდა, თუ კარგად დააკვირდებით, შესაძლოა, შემთხვევით კონტექსტიდან ამოვარდნილი, უაზრო დეტალები (გადღაბნილი საღებავის მაგვარი ფრაგმენტები, დაზიანებები, ასოები და ა.შ.) ან რაიმე საგნის ფრაგმენტებიც შენიშნოთ. მაგალითისთვის: ანგელა მერკელისა და ბარაკ ობამას "შეხვედრის" ამსახველ ყალბ ფოტოებში ფონზე კაცს შენიშნავთ, რომელსაც ფეხები არა აქვს.

ფოტო: Instagram/@joannsfar

3. იდეალური ან შესამჩნევად დარღვეული სიმეტრია

როგორც წესი, გარკვეული ხარისხით ყველა ადამიანის სახე ასიმეტრიულია. ეს ფაქტი AI ფოტოებზე დაკვირვების დროსაც უნდა გაითვალისწინოთ. მათზე გამოსახული სახეები ზოგჯერ ზედმეტად სიმეტრიულია, ზოგჯერ კი — პირიქით: ორივე თვალის ზომა ერთმანეთისაგან არაბუნებრივად განსხვავდება; ერთი სხვა მიმართულებით იყურება; შესაძლოა, ისინი სხვადასხვა ფერისაც კი იყოს... AI-ს ამ ტიპის შეცდომების დაშვება სჩვევია, ხოლო, როცა ყალბი ფოტოები უნდა გამოვავლინოთ, ნაკლებად საფუძვლიანია იმაზე ფიქრი, რომ საქმე არც ისე გავრცელებულ სამედიცინო მდგომარეობებთან, სიელმესთან ან ჰეტეროქრომიასთან, გვექნება.

ფოტო: Medium

4. უჩვეულო, არარეალური დეტალები და ჩრდილები

AI-ის მიერ გენერირებულ სურათებში ხშირად ისეთი დეტალები გვხვდება, რომლებსაც ადამიანის მიერ გადაღებულ სურათებში ვერ ვიხილავდით: ზედმეტად კონტრასტული გამოსახულება და ბასრი კიდეები, არაბუნებრივად ერთგვარი ტექსტურა, საჭირო ადგილებში ჩრდილების არარსებობა ან მათი არარეალური განლაგება.

ბრედ პიტის Stable Diffusion ინსტრუმენტით შექმნილი გამოსახულება

ფოტო: AFP/Stable Diffusion

დააკვირდით აქსესუარებს და სახის სხვადასხვა მონაკვეთსაც.

ფოტო: MUO

5. სპეციალური იარლიყები

თუ AI-ის მიერ გენერირებული ფოტოებით ვინმემ დეზინფორმაციის გავრცელება განიზრახა, ლოგიკურია, ზედ ასეთ ნიშნებსაც არ დატოვებს. მიუხედავად ამისა, მნიშვნელოვანია გაითვალისწინოთ ისიც, რომ ზოგიერთი ინსტრუმენტით გენერირებულ ასეთ სურათებს ქვეშ იარლიყებიც აქვს.

DALL-E-ით გენერირებული ფოტოს ქვეშ ფერად კუბებს შეხვდებით.

ფოტო: AFP/DALL-E

Craiyon.com-ით შექმნილ სურათზე ქვემოთ პასტელს იხილავთ.

ფოტო: AFP/Craiyon.com

სპეციალური ხრიკები AI სურათების ამოსაცნობად

ხელოვნური ინტელექტის მიერ გენერირებული ფოტოების ამოსაცნობად რამდენიმე ინსტრუმენტიც არსებობს. ამ ეტაპზე ისინი არც ისე ზუსტია, ამიტომ უმჯობესია, თუკი მხოლოდ დამხმარედ გამოიყენებთ. ასეთია Hugging Face-ისა და GAN დეტექტორები. გაითვალისწინეთ, რომ ეს ავრორის სურათი რეალურისგან ვერცერთმა ვერ განასხვავა.

ფოტო: Reddit

შესაძლოა, ფოტოს რეალურობაში დასარწმუნებლად მისი პირველწყაროს მოძებნაც დაგეხმაროთ — ვინ იცის, იქნებ ამტვირთავმა ისიც ახსენა, რომ ფოტო AI-მა დააგენერირა და კონკრეტული ინსტრუმენტიც მიუთითა; იპოვით იგივე ფოტოს შემცველ სხვა პოსტებსაც. შეგიძლიათ, ამისათვის reverse image search ფუნქცია გამოიყენოთ.

საინტერესოა კიდევ ერთი მიგნებაც: მკვლევრებმა დიფუზიურ მოდელს AI-ის მიერ გენერირებული სურათი მიაწოდეს, პროგრამამ კი შეძლო და მისი ასლი მარტივად შექმნა. მეორე მხრივ, რეალური ფოტოს შემთხვევაში მას მიმსგავსებაც კი არ გამოუვიდა. მართალია, ამის მიხედვით ჯერ სპეციალური ხელმისაწვდომი ონლაინ ინსტრუმენტი არ შექმნილა, თუმცა შესაძლოა, ეს სამომავლოდ მაინც მოხერხდეს.

ასეა თუ ისე, ყველა ვთანხმდებით, რომ ახალი, მეტად დახვეწილი AI ინსტრუმენტებით გენერირებული ფოტოების ამოცნობა დროთა განმავლობაში უფრო და უფრო რთულდება. ეს ერთგვარი მოცემულობაა, რომელსაც წინ ვერ აღვუდგებით — ისღა დაგვრჩენია, ციფრული სამყაროს ტემპს შეძლებისდაგვარად ავუწყოთ ფეხი, საკუთარი უნარები კი ინფორმაციული ქაოსისას წარმოქმნილ საჭიროებებს მოვარგოთ: დავეჭვდეთ, დავაკვირდეთ და ერთი შეხედვით არაფერი დავიჯეროთ.

თუ სტატიაში განხილული თემა და ტექნოლოგიების სფერო შენთვის საინტერესოა, შემოგვიერთდი ჯგუფში, სადაც ვლაპარაკობთ ტექნოლოგიებზე.