끝이 보이지 않는 팬데믹 상황으로 모두에게 힘들었던 2021년이 저물어가고 있습니다. 다만 비대면 시대를 맞아 그 어느 때보다 인공지능 기술 개발과 도입은 활발해졌죠. 재택 근무가 일상화되고, 원격 기술 도입이 늘어나는 등 엄청난 변화가 일어나면서 다방면에서 AI 기술이 적극 활용되고 있습니다.
이번 컨텐츠는 2021년을 마무리하며 올 한해 동안의 주요 인공지능 뉴스들을 정리해봤습니다. 2021년 각종 매체를 통해 소개된 인공지능 관련 기사들 중 중요성과 빈도수 등을 기준으로 선정했습니다. 분량 관계상 이번 글을 포함해 총 2회로 나누어 2021년의 인공지능 및 자연어처리 관련 주요 뉴스들을 소개해드립니다.
1월
AI 챗봇 이루다, 서비스 잠정 중단
AI 챗봇 ‘이루다’가 혐오 표현 및 개인정보 유출 논란을 일으키며 서비스를 종료했습니다. 사회적 논란을 불러일으키며 학습에 사용된 데이터베이스는 물론 딥러닝 대화 모델까지 폐기하였죠. 다만 이를 계기로 모두에게 경각심을 불러일으켰고, 관련 기업은 물론 국가 차원에서도 AI 윤리 정립 논의가 본격화될 수 있었습니다.
2월
네이버, AI 윤리 준칙 발표
네이버가 AI 정책 이니셔티브(SNU AI Policy Initiative, SAPI)와 함께 ‘AI 윤리 준칙’을 발표했습니다. 지난 2018년 카카오가 먼저 ‘알고리즘 윤리헌장’을 발표한데 이어 네이버 역시 AI 개발과 이용에 있어 준수해야 하는 원칙을 마련한 것이죠. 구체적으로는 사람을 위한 AI 개발, 다양성의 존중, 합리적인 설명과 편리성의 조화, 안전을 고려한 서비스 설계, 프라이버시 보호와 정보 보안의 총 5개 조항이 담겨 있습니다.
참고로 트위그팜도 지난 8월 ‘언어처리 엔진 LETR 윤리 원칙’ 초안을 마련했습니다. 인공지능 자연어처리 전문 기업으로서 사회적 책임에 걸맞는 윤리 원칙을 고민해 온 결과물이죠. 다만 아직은 그 시작 단계로 앞으로 내외부의 다양한 의견을 수렴하며 지속적으로 개선해 갈 예정이니 구체적인 내용은 아래 링크를 확인해주시기 바랍니다.
인공지능 윤리: 03. 사람중심 AI와 LETR 윤리원칙
제프리 힌튼, 글롬(GLOM) 모델 논문 발표
지난 2월 딥러닝의 대부 제프리 힌튼이 ‘신경망에서의 부분-전체 계층 구조 표현 방법(How to representpart-whole hierarchies in a neural network)’이란 논문을 발표했습니다. 이 논문은 진화된 딥러닝 모델인 글롬(GLOM)을 제안하고 있죠. 글롬은 우리 뇌의 유추적 추론을 모델링한 것으로, 이전 ML의 한계를 넘어 훨씬 더 인간과 유사한 방식으로 인식하게 될 것으로 전망됩니다.
3월
국립국어원, 인공지능 학습용 한국어 자료 2차 공개
국립국어원이 인공지능의 한국어 처리 능력 향상에 필요한 학습용 데이터 자료 8종을 '모두의 말뭉치'(https://corpus.korean.go.kr)에서 공개했습니다. 지난해 8월 인공지능 학습용 한국어 말뭉치 13종 18억 어절을 공개한대 이어 추가로 공개하는 자료이죠. 해당 자료는 ‘모두의 말뭉치’에서 온라인 약정서를 작성해 승인받으면 누구나 이용할 수 있습니다.
5월
‘구글I/O 2021’, AI 대화모델 ‘람다(LaMDA)’ 발표
구글이 연례 개발자 행사 ‘구글I/O 2021’에서 언어·문맥을 이해하고 답하는 AI 대화 모델 ‘람다(LaMDA)’를 선보였습니다. 람다는 ‘대화 언어 모델(Language Modelfor Dialogue Applications)’의 약자로, 기능을 고도화해 답이 없는 질문에도 인간과 같은 자연스러운 대화가 가능한 AI 언어 모델이라죠. 순다 피차이 구글 CEO는 “미리 정의된 답변을 학습하지 않아 자연스러운 대화를 할 수 있다”며 람다를 소개했습니다.
네이버, 초대규모 AI '하이퍼클로바(HyperCLOVA)' 공개
네이버가 국내 기업 최초로 초대규모(Hyper scale) 인공지능(AI)인 '하이퍼클로바(HyperCLOVA)'를 공개했습니다. 기존의 영어 중심이 아닌 한국어 기반의 GPT-3 모델이 등장한 것이죠. 이후 네이버는 언어 모델을 확장하고, 영상이나 이미지 등도 이해하도록 계속해서 발전시킬 계획이라고 합니다.
기존 초대형 AI 언어 모델의 대안, 빅사이언스 프로젝트
전 세계 연구자들이 모여 오픈소스 LLM을 구축하려는 빅사이언스(BigScience) 프로젝트가 시작되었습니다. 언어 다양성 결핍, 유해한 언어 패턴의 학습 등 람다와 같은 대형 언어 모델(large language model, LLM) 의 한계와 부작용에 주목한 것이죠. 또한 이 프로젝트를 통해 구축되는 LLM은 상업성 있는 언어 모델을 지향하는 것이 아니라 과학계의 공용 자원으로 활용될 에정입니다
References
[1] https://www.technologyreview.kr/geoffrey-hinton-glom-godfather-ai-neural-networks/
[2] https://www.technologyreview.com/2020/11/03/1011616/ai-godfather-geoffrey-hinton-deep-learning-will-do-everything/
[3] https://arxiv.org/abs/2102.12627
[4] https://youtu.be/cllFzkvrYmE
[5] https://www.technologyreview.kr/ai-large-language-models-bigscience-project/
[6] https://www.technologyreview.com/2021/05/20/1025135/ai-large-language-models-bigscience-project/
[7] https://www.theverge.com/2021/5/18/22435419/google-io-2021-event-recap-biggest-announcements-pixel-android-12-wear-os-workspace
[8] https://byline.network/2021/05/19-150/