| 제목 | 인공지능응용학과 김성은 교수팀, 인공지능 분야 Top-tier Conference ‘ICML 2026’ 논문 채택 | ||||
|---|---|---|---|---|---|
| 작성자 | 창의융합대학 | 조회수 | 89 | 날짜 | 2026-05-08 |
| 첨부파일 |
|
||||
|
▲ 왼쪽부터 임진교 석사과정생, 정승규 박사과정생, 지도교수 김성은
서울과학기술대학교 인공지능응용학과 김성은 교수 연구팀의 논문이 인공지능 분야 세계 최고 권위의 국제학술대회인 ‘ICML 2026(International Conference on Machine Learning)’에 채택되었다. ICML 2026은 7월 6일부터 11일까지 서울 코엑스에서 개최될 예정이다.
이번에 채택된 논문의 제목은 “Rethinking Attention in Spiking Transformers: Overcoming Density Bias with Set Similarity”로, 스파이킹 신경망 기반 Transformer 구조에서 발생할 수 있는 어텐션 메커니즘의 한계를 분석하고, 이를 개선하기 위한 새로운 방법을 제안한 연구이다.
스파이킹 신경망 기반 Transformer에서 기존 어텐션 방식은 입력 특징 간의 유사도를 계산하는 과정에서 실제 의미 있는 유사성보다 spike density의 영향을 크게 받을 수 있다. 이러한 문제를 density bias로 정의하고, 이를 완화하기 위해 Dice coefficient 기반의 Spike Dice Attention(SDA)을 제안하였다. 제안 방법은 spike representation 간의 의미 있는 overlap을 반영함으로써 희소한 spike 신호에서도 보다 안정적인 attention 계산이 가능하도록 설계되었다.
이번 연구는 스파이킹 신경망과 Transformer를 결합한 차세대 AI 모델의 한계를 분석하고, 에너지 효율적인 인공지능 모델 설계 가능성을 제시했다는 점에서 의미가 있다. 특히 스파이킹 신경망은 낮은 전력 소모와 높은 계산 효율성을 바탕으로 향후 온디바이스 AI, 엣지 디바이스, 뉴로모픽 칩 기반 AI 시스템 등에 활용될 수 있는 핵심 기술로 주목받고 있다.
이번 연구는 임진교 석사과정생이 주도하였으며, 약 1년에 걸친 지속적인 연구를 통해 도출된 성과라는 점에서 의미가 크다.
김성은 교수는 “이번 연구는 스파이킹 Transformer에서 attention 메커니즘이 갖는 구조적 문제를 set similarity 관점에서 해결하고자 한 시도”라며, “향후 뉴로모픽 디바이스 기반의 에너지 효율적인 AI 연구로 확장할 수 있을 것으로 기대한다”고 밝혔다.
한편, ICML은 NeurIPS, ICLR과 함께 인공지능 및 머신러닝 분야를 대표하는 세계 최상위 국제학술대회로 평가받고 있다. 이번 논문 채택은 김성은 교수 연구팀의 뇌모방 인공지능 및 차세대 AI 연구 역량을 국제적으로 인정받은 성과로 평가된다. |
|||||
이전 내용이 없습니다.