커뮤니티

대학원소식

첨단영상대학원, 콘텐츠와 AI의 융합 연구 ICCV`25 여덟 편 발표 쾌거

관리자 │ 2025-08-01

HIT

114

https://news.cau.ac.kr/cms/FR_CON/BoardView.do?SITE_NO=5&BBS_SEQ=8873&BOARD_SEQ=1&MENU_ID=10


인공지능 분야 세계 최고 학술대회인 ICCV (International Conference on Computer Vision)에 첨단영상대학원의 권혁준, 김학구, 박진휘, 엄찬호, 오지형, 최종원 교수(사진 좌측부터)가 이끄는 연구팀들이 높은 경쟁률을 뚫고 총 여덟 편의 논문을 게재 확정하는 쾌거를 이뤄내었다. 특히 게재된 논문 중 상위 10%에게만 주어지는 Highlight 논문이 세 편이나 포함된 점이 눈길을 끈다. , 최종원 교수 연구실에서만 네 편의 논문을 한꺼번에 게재하며 첨단영상대학원이 국내 최고 수준의 연구 경쟁력을 갖추고 있는 점 역시 입증하였다.

 

ICCV는 매해 개최되는 인공지능 및 컴퓨터비전 분야의 세계 최고 학술대회로 당해 혁신적인 컴퓨터 비전 방법론이 발표된다. 올해 11,239편의 논문이 제출되었고, 그 중 24%의 논문만이 게재 통과를 받았다. 인공지능 분야는 그 발전 속도가 빠른 만큼 매해 우수 논문의 대부분이 학술대회에 제출되기에, 학술대회 실적이 국내와 글로벌 IT 기업으로의 취업에 필수적이다.

 

이번 ICCV2025에 다수의 논문을 게재한 것에 대해 첨단영상대학원 이창재 원장은 “작년CVPR2024에 이어 첨단영상대학원에서 수행하고 있는 콘텐츠와 AI 융합 연구가 세계 최고 수준으로 계속 인정받은 것이 매우 기쁜 일이다. ICCV 논문 게재는 교수에게는 커다란 영예이자, 학생에게는 글로벌 IT기업의 취업이 보장되는 중요한 관문이다. 향후에도 지속적인 결과를 기대하며 앞으로도 첨단영상대학원이 주관하고 있는 메타버스대학원과 BK21+ 인공지능-콘텐츠 미래산업 교육연구단에서 콘텐츠 및 영상 분야에서의 글로벌 리더를 양성하는데 최선을 다하겠다.”고 언급하였다.

 

각 논문들은 예술과 공학의 융합에서 출발한 연구들이라는 점에서 더욱 큰 관심을 끌고 있다. 논문의 전문과 프로젝트 동영상은 각 연구실 홈페이지나 첨부된 링크를 통해 확인할 수 있다.

 

Beyond Spatial Frequency: Pixel-wise Temporal Frequency-based Deepfake Video Detection (김태훈, 최종욱, 정용현, 노하은, 유재준, 백승렬, 최종원) [Highlight Paper]

동영상의 어색한 움직임을 기반으로 딥페이크 영상을 탐지하는 기법을 제안하여, AI의대표적 악용 사례인 딥페이크 콘텐츠를 미연에 방지한다. (https://rama0126.github.io/PwTF-DVD/)

DiffPS: Leveraging Prior Knowledge of Diffusion Model for Person Search (김기열*, 양수영*, 오지형, 강명주, 엄찬호) [Highlight Paper]

복잡한 장면 속에서 특정 인물을 검색하는 기술을 개발하여, 영화나 영상을 편집할 때 인물 별 장면을 추출해 편집 효율성을 크게 향상시킨다. (https://perceptualai-lab.github.io/DiffPS/)

MemoryTalker: Personalized Speech-Driven 3D Facial Animation via Audio-Guided Stylization (김형규, 이상민*, 김학구* (*공동교신))

오직 음성만으로 말하는 스타일을 분석하여 현실감 있는 3D 얼굴 애니메이션을 생성하는 AI 모델을 제안하며, 다국어 영상 콘텐츠 편집이나 애니메이션 제작에 활용된다. (https://cau-irislab.github.io/ICCV25-MemoryTalker/)

InsideOut: Integrated RGB-Radiative Gaussian Splatting for Comprehensive 3D Object Representation (이정민, 홍성혁, 이주용, 이재윤, 최종원)

RGBX-ray 이미지를 모두 활용하여 특정 물체의 겉과 속을 동시에 볼 수 있는 완전한 3D 모델을 생성하며, 문화유산 보존 분석과 산업 제조 분야 등에 활용 가능하다. (https://leejngmn.github.io/InsideOut.github.io/)

AJAHR: Amputated Joint Aware 3D Human Mesh Recovery (조현진*, 최기윤*, 최종원 (*공동1저자))

 사지에 일부 결손이 있는 사람들에 대해 동작 가능한 자세 인식 AI를 개발하여, AI의 사회적 평등을 향상시키고 상호작용 기반 미디어 콘텐츠의 범용성을 향상시켰다. (https://chojinie.github.io/project_AJAHR/)

Group-wise Scaling and Orthogonal Decomposition for Domain-Invariant Feature Extraction in Face Anti-Spoofing (정승진, 이강희, 정용현, 노하은, 이정민, 최종원)

 출력물이나 디스플레이 등으로 얼굴 인식 AI를 속이려는 범죄를 방지하기 위한 안티스푸핑 분야에서, 새로운 속임수 방법이 출현해도 막을 수 있는 AI 모델을 제안한다. (https://seungjinjung.github.io/project/GD-FAS.html)

Test-Time Prompt Tuning for Zero-Shot Depth Completion (정찬휘, 배인환, 박진휘*, 전해곤* (*공동교신)) [Highlight Paper]

 극히 제한된 거리 정보만을 활용하여 이미지 전체의 거리 정보를 추정하는 새로운 AI 모델을 제안하며, 영상 콘텐츠의 3D 편집의 정확도를 높였다.

DC-TTA: Divide-and-Conquer Framework for Test-Time Adaptation of Interactive Segmentation (김지훈*, 권호용*, 권혁준*, 정우성, 윤국진)

 클릭을 기반으로 특정 물체의 영역을 추출하는 알고리즘의 클릭 효율을 극대화하여, 영상이나 이미지 편집의 효율성을 크게 높였다.


이전글 첨단영상대학원, 5년간 20억 원 규모 서울시 RISE 사업 수주… ...
다음글 첨단영상대학원, 절강미디어대학 공동 단기교육 프로그램 ...