Сенбі, 26 қазан, 02:43

  • Қаз
  • Qaz

Бізге жаңалық
жіберіңіз:

+7(702)932-52-25
Жаңа шығарылым
85-2095
25.10.2024
PDF мұрағаты

Дипфейк және жасанды бейнелер: Пайдасы мен зияны қандай?

10.07.2024

451 0

Жақында жасанды интеллект мәтіндерді жазу, суреттерді құрумен қатар, пайдаланушының мәтіндік сұранысы немесе жүктеген фото бойынша бейне құруды үйренді. Жасанды интеллект қазірдің өзінде кейде шынайы бейнелерден айырмашылығы жоқ жасанды бейнені жасауға қабілетті. Бұл – кино, жарнама және ойын-сауық контенті үшін үлкен мүмкіндік. Ашық дереккөздерден алынған мысалдар мен ақпараттарды талдап, жасанды интеллект зерттелген мәліметке сүйеніп, жаңа бейне жасай алады. Жетілдірілген алгоритмді пайдалана отырып, ЖИ қандай элементтер бейнені шынайы етіп көрсететінін және оларды дәлдікпен көрсету үшін үлкен көлемдегі деректерді талдай алады. Жүйе бұрын тек кәсіби видеографтар жасай алатын бейнелерді бірнеше минутта жасауға мүмкіндік береді. Адамдардың жаңа өнімге көзқарасы әр түрлі. Кейбіреулер мұны ойын-сауық, білім беру және бизнес үшін тамаша мүмкіндік деп санаса, басқалары жалған ақпарат беру немесе контент индустриясында жағымсыз әсерінен қорқады. Бірақ ЖИ шығармашылық пен инновацияның жаңа көкжиегін ашып жатқанын жоққа шығаруға болмайды. Сонымен бірге бұл этика мен авторлық құқыққа қатысты сұрақтарды тудырады, өйткені шындыққа тым жақын нәрсені жасау өте оңай болды. Бұл технологияларды әзірлеушілер мен пайдаланушылар пайдалануға жауапкершілікпен және бейнені жасауда басқалардың зияткерлік меншігін ескеру маңызды екенін  айтуда. Айта кету керек, ЖИ сапалы бейнелер жасағанмен, оны мамандар қолынан шыққан бейнелер мен анимацияларды алмастыруға әлі мүмкіндігі аз.

Бейнероликтер мен анимациядағы инновация

Генеративті бейнелер анимацияның жаңа көкжиегін ашады, бұл керемет дәл­дік­пен шынайы және егжей-тегжейлі көріністер­­ді жасауға мүмкіндік береді. Жасанды интел­лектінің адам шығарма­шы­лығына еліктеу қабілеті артқан сайын, жасанды интеллект анимациясының құқықтық және этикалық мәселені еске­руі міндетке айналады. Бейне жасауда­ғы ЖИ шы­ғармашылық пен инновация­ның жаңа көкжиегін ашып, киноиндустрия мен анимация саласында бұрын жасау мүмкін емес немесе тым қымбат болатын бейнелерді құруға арналған құралдарды ұсынады.

Мысалы, Қытайда классикалық қытай поэ­зиясын озық анимациямен үйлестіретін, жасанды интеллект ар­­қылы жасалған мультхикая көрсет­ті. Қытайдың мемлекеттік телерадио­компаниясы толығымен жа­санды интеллект арқылы жасалған «Qianqiu Shisong» жеті минуттық 26 эпизодтан тұратын, дәстүрлі қытай өлеңдері мен поэзиясын көрсететін анимациялық сериалды көрермендерге көрсетті. Бұл жоба Шанхай жасанды интеллект зерт­ханасымен бірлесіп әзірленген CMG Media GPT машиналық оқыту үлгісін қолдану арқылы жүзеге асты. CMG Media GPT үлгісі дәстүрлі қытай поэзиясы және China Media Group ката­логындағы аудио және бейне материалдардың үлкен көлемі бойынша оқытылды. Ол та­рихи деректерге сүйене оты­рып, дәл сәулет түрлері мен дәстүрлі киім үлгілерімен қоса, дәстүрлі қытай сия стилінде бейнелер жасай алды. Жасанды интеллект дизайннан бастап бейне генерацияға және пост-өндіріске дейінгі даму мен өндірістің барлық кезеңдерінде қолданылды. Бұл анимация жасаудың уақыты мен шығындарын айтарлықтай қысқартуға мүмкіндік берді. Қытай түрлі салаларда, соның ішінде БАҚ пен ойын-сауықта жасанды интел­лект мүмкіндіктерін бел­сенді түрде зерттеуді жалғастыруда. Гене­ративті бейнелер арманымыздағы әсерлі визуал­ды оқиға­ларды жасауға мүм­кін­дік береді. Жасанды интеллект пен шығарма­шылықтың бірігуі бейнелерді концеп­туа­лизациялау және анимациялық мульт­фильм­дерді өмірге әкелу жолында революциялық өзгерістерге жол ашады.

Анимацияда жасанды интеллект қолдану шындық пен қиял арасындағы шектеулерді жоюды жалғас­тыруда, бұл инновацияның шегі жоқ болашақтың көрінісін ұсынады. Генеративті анимация – жасанды интеллектіні жетілдіру арқасында қарқынды дамып келе жатқан сала. Генеративті анимацияның мысал­дарын кинодан бастап бейне ойындарға дейін түрлі салаларда табуға болады.

Мысалы, «Pixar» Neural Style Transfer көме­гімен шынайы өрт әсерлерін жасай отырып, Elemental фильміндегі Эмбер кейіп­керін жандандыру үшін ЖИ қолданды. Бұл тәсіл әр кадрды анимациялауға кететін уақыт пен күш-жігерді айтарлықтай қысқартты. «Disney» цифрлық адамдарды, виртуалды өндірісті және терең бейне өңдеуді жасау үшін ЖИ пайдаланады. Мысалы, Medusa Facial Capture жүйесі 30-дан астам фильмде, соның ішінде «Кек алушылар: Финал» фильмінде қолданылған, адамның шынайы бейнесін жасау үшін терең оқытуды пайда­ланады. Pixar «Жоғары» және «Жақсы динозавр» сияқты фильмдерде қолданылған жануарлар мен басқа да тіршілік иелерінің 3D үлгілерін жасау үшін машиналық оқыту алгоритмдерін пайдаланатын Genesis жасанды интеллект жүйесін әзірледі. «Арыстан патша» 2019 жылғы ремейкінде жасанды интеллектіні пайдалану шынайылықтың жоғары деңгейіне мүмкіндік беретін маңызды элемент болды. ЖИ жануарлардың мінез-құлқы мен қимыл-қозғалысын имитациялау үшін қолданылды, бұл кейіпкерлерді жабайы табиғаттағы нақты жануарлар сияқты көрсетті. Бұл пейзаждар күрделі ЖИ алгоритмдерін қолдану арқылы жасалды, нәтижесінде әсерлі болды. Бұл тәсіл жаңа буынның көрнекі әсерлерін жасауда ЖИ мүмкіндіктерін көрсете отырып, шынайы анимация жасауда жаңа мүмкіндіктер ашты.

Бұған қоса, мәтіндік нұсқаулардан шы­найы және ойдан шығарылған көріністер жасауға мүмкіндік беретін, кинематография мен анимацияның жаңа мүмкіндіктерін ашатын OpenAI ұсынған бағдарламалар бар. Бұл мысалдар генеративті ЖИ жоғары сапалы бейне эффектілері мен анимациялар жасау үшін қалай пайдалануға болатынын көрсетеді.

Анимациядағы генеративті ЖИ – бұл қазірдің өзінде болашағы зор, одан да инно­вациялық мүмкіндігі жоғары. Генера­тивті ани­мация әлемі таңғажайып көрнекі бейнелер мен анимация бөліктерін жасау үшін көптеген озық технологияларды пай­даланады. Осындай технологиялардың бірі – қозғалыссыз кескін­дерден немесе бейнелерден анимациялық бейне­лер жасауға мүмкіндік беретін ЖИ негізіндегі құрал.

Бұл технологиялар анимация жасау үде­рісін қолжетімді және тиімді ете оты­рып, аниматорлар мен суретшілерге шығармашы­лық идеяларын жүзеге асыруға жаңа мүм­кіндіктер береді. Осы құралдарды пай­далана отырып, жеке пайдаланудан ком­мер­циялық  жобаларға дейін, әр түрлі мақсат­тар үшін анимациялар жасай аласыз. Генератив­ті анимация дамуын жалғастыруда болашақ­та бұдан да көп инновациялық технологиялар­ды күтеміз. Сонымен қатар жасанды интел­лект анимацияға сай музыкалық бейнелерді жасау үшін қолданылады, онда ол кейіпкерлер­дің қимылдарын музыкамен синхрондауға және есте қаларлықтай көрнекіліктер жасауға мүмкіндік береді.

Дипфейк немесе

жалған бейне

Жасанды интеллект арқылы жасалған бейнелердің тағы бір түрі – дипфейк. Deepfake – жасанды интеллект арқылы бейне немесе дауыс жасау әдісі. Көрнекі түрде ол кәдімгі бейнеге ұқсайды. Қарапайым сөзбен айтқанда, дипфэйк – белгілі бір адамға немесе арнайы жасалған кейіпкерге еліктейтін сурет немесе бейне. Бұл көбінесе адамдардың келісімінсіз әрекеттері мен сөздерін қолдан жасау үшін жасанды интеллект арқылы жасалған бейнелер. Дипфейк технологиясын кино саласында кеңінен пайдалануда. Фильмдегі дипфейк түрлі мақсаттарға қол жеткізу үшін қолданылады, соның ішінде актерлерді жасарту, әртістердің бейнесін қайта құру немесе бояу қолданбай сыртқы түрін өзгерту. Бұл технология актерлерді «жасартуға» немесе «қартайтуға» мүмкіндік береді. Мысалы, бұл бір адамның бейнесі басқа біреудің денесіне салынған бейне немесе атақты адамның дауысына еліктеп, ол ешқашан айтпаған сөздерді айтып тұрғандай көрінетін аудио жазба болуы мүмкін. Мұндай фейктерді кино саласында немесе әзілден бастап алдау мен жалған ақпаратқа дейін әр түрлі мақсаттарда алаяқтар пайдалануы мүмкін.

Депфэйктердің қауіптілігі олардың шы­найы адам­дарға нанымды еліктеу қабі­летінде, оларды тану қиын. Бұл жалпы бейненің мазмұнына сенімнің жоғалуын қоса алғанда, зиянын тигізуі мүмкін. Соны­мен қатар жеке тұлғалардың беделін түсіру, айып­тау айғақтарын жасау және тіпті биометриялық сәй­кес­тендіру жүйелерін алдау үшін қолданылатын алаяқ­­тық үшін пайдаланылуы мүмкін. «Informburo.kz» – мультимедиялық, ақпараттық-сараптамалық порталы­­ның ақпараты бойынша елімізде дипфейк арқы­лы алаяқтар адамдардан ақша бопсалауды үйрен­ген. Олар жасанды интеллекті шебер пайда­ланып, бет-әлпетті де, дауысты да ауыстыру арқылы атақты адам сізге криптовалютаға немесе пирамидаға инвестиция салуды ұсынады.

Олбанидегі Нью-Йорк университетінің зерт­теу­шілері дипфейкті танудың жолын ұсынды. Олар тыныш күйде адамдар орта есеппен минутына 15-17 рет көзін жыпылықтатса және жыпылықтау жиілігі сөйлесу немесе оқу кезіндегі белсенділікке байланысты өзгеретінін анықтады. Жалған видеоны дәлірек анықтау үшін алгоритмдер адамның физиологиялық ерекшеліктерін ескеруі керек. Дипфейк видео­ларда көздің қозғалысы, қарашық көлемінің өзгеруі, тыныс алу мен жүрек соғу жиілігі сияқты мәліметтерді анықтауда тек арнайы бағдар­ламалар көмек көрсете алады. 

Өзіңізді фейктерден қорғайтын техно­ло­гиялардың бар екенін білу және айналаңыздағы адамдарды ақпараттандыру маңызды. Дипфейк белгілері және оларды қалай тануға болатыны туралы «іnformburo.kz» мультимедиялық, ақпа­раттық-сарапта­малық порталына берген сұх­батында кибер­қауіпсіздік сарапшысы Евгений Питолин атап айтты.

Сарапшының айтуынша, бірқатар мәсе­лелерге мән беру қажет екен. Мысалы, көзді жыпылықтату: адам бір нүктеге қарайды және қажет емес жерде екі-үш рет көзін жыпылықтатады. Екіншіден, еріннің сөйлеумен анық десинхронизациясы, яғни дыбысты естисіз, бірақ ерін қозғалысы жоқ немесе сәйкес келмейді, – дейді киберқауіпсіздік сарапшысы Евгений Питолин.

Сондай-ақ жеке деректер мен сурет­тер­дің фейк­терде пайдалану қаупін азайту үшін оларды желіде таратуды шектеу арқылы қорғау маңызды. Бейненің шынайылығына күмәніңіз болса, ақпа­ратты растау үшін адамға тікелей немесе басқалар арқылы хабарласу ұсынылады. Компаниялар мен ұйымдар қызметкерлерді оқыту, жалған мазмұн оқиғаларын бақылау және оларға жауап беруді қоса, терең фейктерден қорғау стратегияларын әзірлеуі керек.

Қорытындылай келе, дипфейк үлкен қауіп төндіреді, бірақ хабардар болу және әрекет ету тәуекелдерді азайтуға және жеке адамдар мен қоғамды олардың зиянды әсерінен қорғауға көмектеседі. Дипфейк қалай жаса­латынын және таралатынын түсіну, сондай-ақ қорғау әдістерін білу цифрлық қауіпсіздік пен цифрлық дәуірдегі сенімді сақтауда маңызды саналады.

Өзіңізді қауіпті дипфейктерден қор­ғау үшін онлайн көріп, естіген ақпаратқа сыни көзқараспен қарау маңызды. Дереккөздер­ді тексеріп, ақпараттың шынайылығын сенімді көздерден іздеу керек. Сондай-ақ бейне немесе аудио жазбаның түп­нұсқасын анық­тауға кө­мекте­сетін арнайы бағдарламалар мен қол­дан­балар бар. Бейнеленген адамдардың келісімінсіз фейктерді бөлісу заңсыз және олардың беделіне нұқсан келуі мүмкін екенін де ескеру керек.

Жалпы дипфейк – аса жауапкершілікпен пайда­лануды қажет ететін қуатты құрал. Ол ойын-сауық немесе білім беру маз­мұнын жасау сияқты оң мақсаттар үшін пайдаланылуы мүмкін, бірақ сонымен бірге жеке адамдар мен жалпы қоғам үшін зияны орасан теріс пайдалану қаупі бар. Сондықтан мұндай мазмұн түрін пайдалануда мұқият болу маңызды.

София Хайруллақызы

 


 

Жылдам ақпарат алу үшін Facebook, Instagram желілері мен Telegram каналымызға жазылыңыз!

Тағы да оқыңыз: