სხვადასხვა

Земляне-ს სოლისტი თუ ილონ მასკი - რა საფრთხეებს შეიცავს DeepFake?

2 ივნისი, 2020

მას შემდეგ, რაც გამომგონებელი ილონ მასკის კომპანიამ Space X-მა კოსმოსური ხომალდით NASA-ს ასტრონავტები ორბიტაზე გაუშვა, ინტერნეტში პოპულარული გახდა ვიდეო, სადაც ილონ მასკი რუსული როკ ჯგუფის Земляне-ს ცნობილ სიმღერას “Трава у дома” (Земля в иллюминаторе)-ს მღერის. 

ყალბი ვერსია

ყალბი ვიდეო თავდაპირველად იუთუბზე 12 მაისს გამოჩნდა, თუმცა 31 მაისს Space X-ის ხომალდის გაშვების შემდეგ სოციალურ ქსელებში ვირუსულად გავრცელდა. ერთი შეხედვით, ვიდეო შესაძლოა მართლაც ნამდვილი გეგონოთ, თუმცა ის ე.წ. DeepFake-ის ტექნოლოგიით არის შექმნილი. სიმღერის ორიგინალი ვერსია Трава у дома, რომელიც 1983 წელს არის გამოშვებული, რუსულ როკ ჯგუფს Земляне-ს ეკუთვნის. სწორედ Земляне-ს სოლისტის ნაცვლად გვევლინება ილონ მასკი DeepFake-ის ვერსიაში.

ორიგინალი ვერსია

რა არის DeepFake?

ხელოვნური ინტელექტის განვითარების შედეგად 2014 წელს შეიქმნა მანქანური სწავლების სისტემა generative adversarial network (GAN), რომელიც საფუძვლად დაედო სახის გაყალბების ისეთ ტექნოლოგიას, როგორიცაა Deepfake. მისი მეშვეობით  შესაძლებელია, კონკრეტულ ინდივიდზე სხვა ადამიანის თავის მოძრაობის, სახის გამომეტყველების, მზერისა და თვალის დახამხამების გადატანაც კი.

როგორ ამოვიცნოთ?

ვიდეოს სინთეზირების დროს ალგორითმი აგენერირებს ახალი სახის გამომეტყველებებს და ამიტომ ეს ახალი კადრები ხშირად არ ჯდება პიროვნების თავის მოყვანილობაში ან განათებაში. იმისათვის, რომ ყალბი სახეები კარგად დაემთხვას ობიექტს, საჭიროა გეომეტრიული ცვლილებები, ამობრუნება, ზომის ცვლილება და სხვა პროცესები, რაც საბოლოოდ ციფრულ კვალს მაინც ტოვებს შედეგზე. ხშირად სახეს აქვს ბუნდოვანი კონტურები და არაბუნებრივად გლუვი კანი, ზოგჯერ არაბუნებრივად გამოიყურება ასევე პირის მოძრაობაც. ვიდეო, რომელიც ასახავს ნამდვილ ადამიანს, მისი სახის მოძრაობას სამ განზომილებაში აჩვენებს, ხოლო DeepFake-ს ალგორითმი ჯერჯერობით ვერ ახერხებს სახის 3D-ში ფაბრიკაციას, ამიტომაც ხელოვნურად გენერირებული კადრებში სახე 2 განზომილებაშია ნაჩვენები.

"
წყარო: the conversation

DeepFake-ს გარჩევა ნამდვილისგან მიუჩეველი თვალისთვის მარტივი არ არის, განსაკუთრებით მაშინ, როდესაც ვიდეო საკმაოდ რეალისტურად გამოიყურება, როგორც ეს ილონ მასკის შემთხვევაშია. DeepFake-ს ტექნოლოგია წლების მანძილზე საკმაოდ დაიხვეწა და მასში ხარვეზების ამოცნობა სულ უფრო და უფრო რთული ხდება. 

რა საფრთხეებს შეიცავს?

DeepFake ტექნოლოგიით შესაძლოა უწყინარი და სახალისო ვიდეობი გაკეთდეს, თუმცა არსებობს შემთხვევები, როდესაც ის პიროვნების დისკრედიტაციისთვის გამოიყენება. კომპანია Deeptrace-ის კვლევის მიხედვით, ინტერნეტში 15,000 deepfake ვიდეოა განთავსებული, მათი 96% კი პორნოგრაფიულია. არსებულ პორნოგრაფიულ ვიდეოში პიროვნების სახის ჩასმა ხშირად შანტაჟის საშუალებად იქცევა. ცნობილი ადამიანები, მაგალითად, ემა უოტსონი და სკარლეტ იოჰანსონი deepfake-პორნოგრაფიის მსხვერპლები უკვე გახდნენ.

ექსპერტები შიშობენ, რომ DeepFake შესაძლოა საარჩევნო კამპანიების დროს ყალბი მესიჯების გასავრცელებლად გამოიყენონ. 

დეზინფორმაციის და პოლიტიკური ოპონენტების დისკრედიტაციის მიზნით ხელოვნური ინტელექტის გამოყენების შემთხვევა საქართველოში უკვე არსებობს. 2019 წლის 22 ივლისს შეიქმნა ფეისბუკ გვერდი “გიორგი აღაპიშვილის ბლოგი”, რომელიც პრო-სახელისუფლებო გვერდია და ხელისუფლების მიმართ კრიტიკულად განწყობილი აქტივისტებისა თუ პოლიტიკური ოპოზიციის წინააღმდეგ მადისკრედიტირებელ პოსტებს ავრცელებს. აღაპიშვილის ბლოგს ქართული ონლაინ პლატფორმები ხშირად წყაროდ იყენებენ და მასზე დაყრდნობით სასურველი გზავნილების მულტიპლიკაციას სხვა გვერდებზე ონლაინ პლარფორმებზეც ახდენენ.

“გიორგი აღაპიშვილის ბლოგის” პროფილის ფოტოზე გამოსახული ადამიანი საერთოდ არ არსებობს. ფოტოს დეტალების ანალიზი და გენერირებული ფოტოების დამახასიათებელი ნიშნები გვიჩვენებს, რომ ფოტო პროპგრამულად არის შექმნილი და რეალურ პიროვნებას არ ეკუთვნის.

"

ვრცლად ამ თემაზე იხილეთ:

  •  Deepfake: როცა მხოლოდ ხილვა საკმარისი არ არის
  • ახლა ვიდეოს გაყალბებაც შესაძლებელია - არის თუ არა deepfake საფრთხე დემოკრატიისთვის