카카오, 새 LLM ‘허니비’ 공개…사진설명도 ‘척척’

산업·IT 입력 2024-01-19 19:53:53 수정 2024-01-19 19:55:30 윤혜림 기자 0개

페이스북 공유하기 트위터 공유하기 카카오톡 공유하기 네이버 블로그 공유하기

AI가 강아지·고양이 사진 인식해 상황 설명

카카오 “MLLM 발전 위해 소스코드 공개”

“상호작용 통해 교육·학습 보조 도구로 사용”

[앵커]

카카오가 멀티모달 언어모델(MLLM)인 ‘허니비’를 처음 공개했습니다. 인공지능(AI)이 동물들 사진을 인식해 상황을 설명해주고, 대화를 나누는 설정까지 만들어 보여주는데요. 기존 텍스트로만 입·출력하는 거대언어모델(LLM)이 진화하고 있습니다. 윤혜림 기잡니다.


[기자]

강아지와 고양이가 함께 있는 사진을 입력합니다.

사용자가 ‘두 동물의 대화를 써달라’고 명령하자 인공지능(AI)이 상황 설명과 함께 고양이와 강아지 간 가상의 대화를 만들어줍니다.


새가 부리로 램프를 물고 있는 사진을 입력하고, ‘광고 작성을 도와달라’고 입력하자‘새 모양의 테이블 램프를 소개’하는 내용의 광고 문구를 만들어줍니다.


카카오브레인이 멀티모달 언어모델 오픈소스 ‘허니비’를 깃허브에 처음 공개했습니다.

깃허브(github)는 프로그래밍 작업을 1인이나 팀 단위로 작업할 수 있게 해주는 웹 기반 툴을 말합니다.


허니비는 이미지에 담긴 장면을 묘사하거나 이미지와 텍스트가 혼합된 콘텐츠에 관한 질문을 이해하고 답변할 수 있습니다. 기존 거대언어모델(LLM)이 텍스트로만 입·출력했는데, 허니비는 이미지 입력이 가능할 정도로 진화한 겁니다.


현재 MLLM에 대한 연구는 공개된 모델의 수가 적고, 학습 방법 역시 자세히 공개되지 않아 개발이 어려운 상황.

카카오브레인은 MLLM 발전을 위해 이 소스코드를 공개했습니다.


[싱크] 노병석 / 카카오브레인 Multimodal Understanding 연구팀장

“허니비 모델의 추론을 가능하게 하는 코드를 깃허브에 공개하였으며, 허니비를 활용한 각종 연구와 서비스 확장을 고려 중입니다. 카카오브레인은 더욱 발전된 AI 모델 확보를 위해 끊임없이 연구 및 개발을 진행할 예정입니다.”

 

카카오브레인은 허니비가 사용자와 상호작용이 가능한 만큼 향후 효과적인 교육과 학습 보조 도구로 사용될 것으로 전망하고 있습니다.서울경제TV 윤혜림입니다. /grace_rim@sedaily.com


[영상취재 허재호 / 영상편집 김가람]

[ⓒ 서울경제TV(www.sentv.co.kr), 무단 전재 및 재배포 금지]

기자 전체보기

기자 프로필 사진

윤혜림 기자 산업1부

grace_rim@sedaily.com 02) 3153-2610

이 기자의 기사를 구독하시려면 구독 신청 버튼을 눌러주세요.

페이스북 공유하기 트위터 공유하기 카카오톡 공유하기 네이버 블로그 공유하기




0/250

0/250