Жақында жасанды интеллект мәтіндерді жазу, суреттерді құрумен қатар, пайдаланушының мәтіндік сұранысы немесе жүктеген фото бойынша бейне құруды үйренді. Жасанды интеллект қазірдің өзінде кейде шынайы бейнелерден айырмашылығы жоқ жасанды бейнені жасауға қабілетті. Бұл – кино, жарнама және ойын-сауық контенті үшін үлкен мүмкіндік. Ашық дереккөздерден алынған мысалдар мен ақпараттарды талдап, жасанды интеллект зерттелген мәліметке сүйеніп, жаңа бейне жасай алады. Жетілдірілген алгоритмді пайдалана отырып, ЖИ қандай элементтер бейнені шынайы етіп көрсететінін және оларды дәлдікпен көрсету үшін үлкен көлемдегі деректерді талдай алады. Жүйе бұрын тек кәсіби видеографтар жасай алатын бейнелерді бірнеше минутта жасауға мүмкіндік береді. Адамдардың жаңа өнімге көзқарасы әр түрлі. Кейбіреулер мұны ойын-сауық, білім беру және бизнес үшін тамаша мүмкіндік деп санаса, басқалары жалған ақпарат беру немесе контент индустриясында жағымсыз әсерінен қорқады. Бірақ ЖИ шығармашылық пен инновацияның жаңа көкжиегін ашып жатқанын жоққа шығаруға болмайды. Сонымен бірге бұл этика мен авторлық құқыққа қатысты сұрақтарды тудырады, өйткені шындыққа тым жақын нәрсені жасау өте оңай болды. Бұл технологияларды әзірлеушілер мен пайдаланушылар пайдалануға жауапкершілікпен және бейнені жасауда басқалардың зияткерлік меншігін ескеру маңызды екенін айтуда. Айта кету керек, ЖИ сапалы бейнелер жасағанмен, оны мамандар қолынан шыққан бейнелер мен анимацияларды алмастыруға әлі мүмкіндігі аз.
Бейнероликтер мен анимациядағы инновация
Генеративті бейнелер анимацияның жаңа көкжиегін ашады, бұл керемет дәлдікпен шынайы және егжей-тегжейлі көріністерді жасауға мүмкіндік береді. Жасанды интеллектінің адам шығармашылығына еліктеу қабілеті артқан сайын, жасанды интеллект анимациясының құқықтық және этикалық мәселені ескеруі міндетке айналады. Бейне жасаудағы ЖИ шығармашылық пен инновацияның жаңа көкжиегін ашып, киноиндустрия мен анимация саласында бұрын жасау мүмкін емес немесе тым қымбат болатын бейнелерді құруға арналған құралдарды ұсынады.
Мысалы, Қытайда классикалық қытай поэзиясын озық анимациямен үйлестіретін, жасанды интеллект арқылы жасалған мультхикая көрсетті. Қытайдың мемлекеттік телерадиокомпаниясы толығымен жасанды интеллект арқылы жасалған «Qianqiu Shisong» жеті минуттық 26 эпизодтан тұратын, дәстүрлі қытай өлеңдері мен поэзиясын көрсететін анимациялық сериалды көрермендерге көрсетті. Бұл жоба Шанхай жасанды интеллект зертханасымен бірлесіп әзірленген CMG Media GPT машиналық оқыту үлгісін қолдану арқылы жүзеге асты. CMG Media GPT үлгісі дәстүрлі қытай поэзиясы және China Media Group каталогындағы аудио және бейне материалдардың үлкен көлемі бойынша оқытылды. Ол тарихи деректерге сүйене отырып, дәл сәулет түрлері мен дәстүрлі киім үлгілерімен қоса, дәстүрлі қытай сия стилінде бейнелер жасай алды. Жасанды интеллект дизайннан бастап бейне генерацияға және пост-өндіріске дейінгі даму мен өндірістің барлық кезеңдерінде қолданылды. Бұл анимация жасаудың уақыты мен шығындарын айтарлықтай қысқартуға мүмкіндік берді. Қытай түрлі салаларда, соның ішінде БАҚ пен ойын-сауықта жасанды интеллект мүмкіндіктерін белсенді түрде зерттеуді жалғастыруда. Генеративті бейнелер арманымыздағы әсерлі визуалды оқиғаларды жасауға мүмкіндік береді. Жасанды интеллект пен шығармашылықтың бірігуі бейнелерді концептуализациялау және анимациялық мультфильмдерді өмірге әкелу жолында революциялық өзгерістерге жол ашады.
Анимацияда жасанды интеллект қолдану шындық пен қиял арасындағы шектеулерді жоюды жалғастыруда, бұл инновацияның шегі жоқ болашақтың көрінісін ұсынады. Генеративті анимация – жасанды интеллектіні жетілдіру арқасында қарқынды дамып келе жатқан сала. Генеративті анимацияның мысалдарын кинодан бастап бейне ойындарға дейін түрлі салаларда табуға болады.
Мысалы, «Pixar» Neural Style Transfer көмегімен шынайы өрт әсерлерін жасай отырып, Elemental фильміндегі Эмбер кейіпкерін жандандыру үшін ЖИ қолданды. Бұл тәсіл әр кадрды анимациялауға кететін уақыт пен күш-жігерді айтарлықтай қысқартты. «Disney» цифрлық адамдарды, виртуалды өндірісті және терең бейне өңдеуді жасау үшін ЖИ пайдаланады. Мысалы, Medusa Facial Capture жүйесі 30-дан астам фильмде, соның ішінде «Кек алушылар: Финал» фильмінде қолданылған, адамның шынайы бейнесін жасау үшін терең оқытуды пайдаланады. Pixar «Жоғары» және «Жақсы динозавр» сияқты фильмдерде қолданылған жануарлар мен басқа да тіршілік иелерінің 3D үлгілерін жасау үшін машиналық оқыту алгоритмдерін пайдаланатын Genesis жасанды интеллект жүйесін әзірледі. «Арыстан патша» 2019 жылғы ремейкінде жасанды интеллектіні пайдалану шынайылықтың жоғары деңгейіне мүмкіндік беретін маңызды элемент болды. ЖИ жануарлардың мінез-құлқы мен қимыл-қозғалысын имитациялау үшін қолданылды, бұл кейіпкерлерді жабайы табиғаттағы нақты жануарлар сияқты көрсетті. Бұл пейзаждар күрделі ЖИ алгоритмдерін қолдану арқылы жасалды, нәтижесінде әсерлі болды. Бұл тәсіл жаңа буынның көрнекі әсерлерін жасауда ЖИ мүмкіндіктерін көрсете отырып, шынайы анимация жасауда жаңа мүмкіндіктер ашты.
Бұған қоса, мәтіндік нұсқаулардан шынайы және ойдан шығарылған көріністер жасауға мүмкіндік беретін, кинематография мен анимацияның жаңа мүмкіндіктерін ашатын OpenAI ұсынған бағдарламалар бар. Бұл мысалдар генеративті ЖИ жоғары сапалы бейне эффектілері мен анимациялар жасау үшін қалай пайдалануға болатынын көрсетеді.
Анимациядағы генеративті ЖИ – бұл қазірдің өзінде болашағы зор, одан да инновациялық мүмкіндігі жоғары. Генеративті анимация әлемі таңғажайып көрнекі бейнелер мен анимация бөліктерін жасау үшін көптеген озық технологияларды пайдаланады. Осындай технологиялардың бірі – қозғалыссыз кескіндерден немесе бейнелерден анимациялық бейнелер жасауға мүмкіндік беретін ЖИ негізіндегі құрал.
Бұл технологиялар анимация жасау үдерісін қолжетімді және тиімді ете отырып, аниматорлар мен суретшілерге шығармашылық идеяларын жүзеге асыруға жаңа мүмкіндіктер береді. Осы құралдарды пайдалана отырып, жеке пайдаланудан коммерциялық жобаларға дейін, әр түрлі мақсаттар үшін анимациялар жасай аласыз. Генеративті анимация дамуын жалғастыруда болашақта бұдан да көп инновациялық технологияларды күтеміз. Сонымен қатар жасанды интеллект анимацияға сай музыкалық бейнелерді жасау үшін қолданылады, онда ол кейіпкерлердің қимылдарын музыкамен синхрондауға және есте қаларлықтай көрнекіліктер жасауға мүмкіндік береді.
Дипфейк немесе
жалған бейне
Жасанды интеллект арқылы жасалған бейнелердің тағы бір түрі – дипфейк. Deepfake – жасанды интеллект арқылы бейне немесе дауыс жасау әдісі. Көрнекі түрде ол кәдімгі бейнеге ұқсайды. Қарапайым сөзбен айтқанда, дипфэйк – белгілі бір адамға немесе арнайы жасалған кейіпкерге еліктейтін сурет немесе бейне. Бұл көбінесе адамдардың келісімінсіз әрекеттері мен сөздерін қолдан жасау үшін жасанды интеллект арқылы жасалған бейнелер. Дипфейк технологиясын кино саласында кеңінен пайдалануда. Фильмдегі дипфейк түрлі мақсаттарға қол жеткізу үшін қолданылады, соның ішінде актерлерді жасарту, әртістердің бейнесін қайта құру немесе бояу қолданбай сыртқы түрін өзгерту. Бұл технология актерлерді «жасартуға» немесе «қартайтуға» мүмкіндік береді. Мысалы, бұл бір адамның бейнесі басқа біреудің денесіне салынған бейне немесе атақты адамның дауысына еліктеп, ол ешқашан айтпаған сөздерді айтып тұрғандай көрінетін аудио жазба болуы мүмкін. Мұндай фейктерді кино саласында немесе әзілден бастап алдау мен жалған ақпаратқа дейін әр түрлі мақсаттарда алаяқтар пайдалануы мүмкін.
Депфэйктердің қауіптілігі олардың шынайы адамдарға нанымды еліктеу қабілетінде, оларды тану қиын. Бұл жалпы бейненің мазмұнына сенімнің жоғалуын қоса алғанда, зиянын тигізуі мүмкін. Сонымен қатар жеке тұлғалардың беделін түсіру, айыптау айғақтарын жасау және тіпті биометриялық сәйкестендіру жүйелерін алдау үшін қолданылатын алаяқтық үшін пайдаланылуы мүмкін. «Informburo.kz» – мультимедиялық, ақпараттық-сараптамалық порталының ақпараты бойынша елімізде дипфейк арқылы алаяқтар адамдардан ақша бопсалауды үйренген. Олар жасанды интеллекті шебер пайдаланып, бет-әлпетті де, дауысты да ауыстыру арқылы атақты адам сізге криптовалютаға немесе пирамидаға инвестиция салуды ұсынады.
Олбанидегі Нью-Йорк университетінің зерттеушілері дипфейкті танудың жолын ұсынды. Олар тыныш күйде адамдар орта есеппен минутына 15-17 рет көзін жыпылықтатса және жыпылықтау жиілігі сөйлесу немесе оқу кезіндегі белсенділікке байланысты өзгеретінін анықтады. Жалған видеоны дәлірек анықтау үшін алгоритмдер адамның физиологиялық ерекшеліктерін ескеруі керек. Дипфейк видеоларда көздің қозғалысы, қарашық көлемінің өзгеруі, тыныс алу мен жүрек соғу жиілігі сияқты мәліметтерді анықтауда тек арнайы бағдарламалар көмек көрсете алады.
Өзіңізді фейктерден қорғайтын технологиялардың бар екенін білу және айналаңыздағы адамдарды ақпараттандыру маңызды. Дипфейк белгілері және оларды қалай тануға болатыны туралы «іnformburo.kz» мультимедиялық, ақпараттық-сараптамалық порталына берген сұхбатында киберқауіпсіздік сарапшысы Евгений Питолин атап айтты.
Сарапшының айтуынша, бірқатар мәселелерге мән беру қажет екен. Мысалы, көзді жыпылықтату: адам бір нүктеге қарайды және қажет емес жерде екі-үш рет көзін жыпылықтатады. Екіншіден, еріннің сөйлеумен анық десинхронизациясы, яғни дыбысты естисіз, бірақ ерін қозғалысы жоқ немесе сәйкес келмейді, – дейді киберқауіпсіздік сарапшысы Евгений Питолин.
Сондай-ақ жеке деректер мен суреттердің фейктерде пайдалану қаупін азайту үшін оларды желіде таратуды шектеу арқылы қорғау маңызды. Бейненің шынайылығына күмәніңіз болса, ақпаратты растау үшін адамға тікелей немесе басқалар арқылы хабарласу ұсынылады. Компаниялар мен ұйымдар қызметкерлерді оқыту, жалған мазмұн оқиғаларын бақылау және оларға жауап беруді қоса, терең фейктерден қорғау стратегияларын әзірлеуі керек.
Қорытындылай келе, дипфейк үлкен қауіп төндіреді, бірақ хабардар болу және әрекет ету тәуекелдерді азайтуға және жеке адамдар мен қоғамды олардың зиянды әсерінен қорғауға көмектеседі. Дипфейк қалай жасалатынын және таралатынын түсіну, сондай-ақ қорғау әдістерін білу цифрлық қауіпсіздік пен цифрлық дәуірдегі сенімді сақтауда маңызды саналады.
Өзіңізді қауіпті дипфейктерден қорғау үшін онлайн көріп, естіген ақпаратқа сыни көзқараспен қарау маңызды. Дереккөздерді тексеріп, ақпараттың шынайылығын сенімді көздерден іздеу керек. Сондай-ақ бейне немесе аудио жазбаның түпнұсқасын анықтауға көмектесетін арнайы бағдарламалар мен қолданбалар бар. Бейнеленген адамдардың келісімінсіз фейктерді бөлісу заңсыз және олардың беделіне нұқсан келуі мүмкін екенін де ескеру керек.
Жалпы дипфейк – аса жауапкершілікпен пайдалануды қажет ететін қуатты құрал. Ол ойын-сауық немесе білім беру мазмұнын жасау сияқты оң мақсаттар үшін пайдаланылуы мүмкін, бірақ сонымен бірге жеке адамдар мен жалпы қоғам үшін зияны орасан теріс пайдалану қаупі бар. Сондықтан мұндай мазмұн түрін пайдалануда мұқият болу маңызды.
София Хайруллақызы
Жылдам ақпарат алу үшін Facebook, Instagram желілері мен Telegram каналымызға жазылыңыз!