[인터뷰] 혐오 발언을 분류하는 AI 모델 개발자 양기창님 인터뷰 2편
이 글은 지난 6월 25일 금요일 밤 10시에 진행됐던 AI 네트워크 클럽하우스 채널의 토론 내용을 요약한 것입니다. 두 편으로 나누어 글이 발행됩니다.
이 글은 지난 6월 25일 금요일 밤 10시에 진행됐던 AI 네트워크 클럽하우스 채널의 토론 내용을 요약한 것입니다. 두 편으로 나누어 글이 발행됩니다.
Agenda: https://github.com/ainblockchain/ai-talks/blob/main/21/21.06.25_hate_speech_classifier.md
클럽하우스: https://www.clubhouse.com/join/ai-network/VB24Y1Ob/xoN2dga8
혐오 발언 분류 AI 데모 링크:
Ainize에 올려진 링크: https://ainize.ai/strutive07/SoongsilBERT-base-beep-deploy
매너가 AI를 만든다 — 01. 터미네이터가 인류를 멸망시킨다고? (링크)
매너가 AI를 만든다 — 02. 인공지능이 사람의 가치를 비교할 수 없다 (링크)
Q1.프로젝트로 넘어가볼게요. 이 프로젝트에서는 언어 모델, SoongsilBERT을 BEEP!으로 학습시켰다고 알고 있습니다. 어떤 프로젝트인가요?
BEEP! 은 저희가 모은 데이터는 아닙니다. 대표적인 한국어 혐오발언성 데이터셋이죠. 네이버 연예뉴스 댓글을 가지고 언어 필터를 사용해서 offensive, hate, default 이렇게 세 가지로 태깅을 한 데이터죠. 저희가 만든 데이터는 아니고 공개되어 있는 데이터죠. 저희가 학교 내부에서 사용됐던 커뮤니티 데이터를 약간 추가해서이걸 SoongsilBERT로 학습시킨 거고요.
Q2. 이 프로젝트를 시작하게 된 계기, 그리고 그 때의 상황을 설명해주신다면요.
대학생들이 많이 쓰는 커뮤니티 ‘에브리타임’이라는 게 있는데요. 그 커뮤니티에 익명으로 저와 제 친한 후배의 이름이 초성으로 올라왔어요. ‘욕설은 없지만 비꼬는 말투’ 등 일반적 금칙어를 사용하지 않고 기분을 상하게 했던 글을 봤던 개인적 경험에서 시작하게 됐습니다.
그 당시에는 혐오성 데이터셋은 커녕 BERT라는 모델도 없을 때여서 키워드 기반으로 데이터를 수동으로 모아서 태깅하여 데이터셋을 만들어 Tweet2Vec (https://arxiv.org/abs/1605.03481)이라는 모델로 학습을 진행했습니다. 이후로 BERT을 비롯한 다양한 사전학습 방법론들이 등장하면서 ‘숭실대 혹은 대학 커뮤니티에 최적화 된’ 언어모델의 필요성을 느끼게 됐고 그렇게 SoongsilBERT라는 사전학습 모델을 만들어 공개하게 됐습니다. (https://github.com/jason9693/Soongsil-BERT)
처음엔 에러 케이스도 있었어요. ‘북극곰’이 혐오 발언으로 잡히더라고요. ‘북’이라는 단어를 대부분 분란글로 잡는 게 이유였어요. 학교 안에서 태그했던 많은 데이터들이 ‘누구는 북한 추종자네’ 이런 식으로 ‘북한’이라는 단어를 잡아내다보니 그런 데이터들이 많이 섞여있었어요.
Q3. 숭실대 동아리에서 만든 커뮤니티앱인 ‘그라운드’ 애플리케이션은 사용자가 보고 싶지 않은 내용이 담긴 게시글은 숨길 수 있도록 하는 필터링 기능을 도입했다고 들었습니다. 이유가 있다면요.
분란글이 아닌 걸 분란글로 태그하면 중요한 이슈가 된다고 생각했어요. 저희는 유저가 ‘그런 발언을 금지시킨다’에 포커싱을 맞추기보다 유저가 ‘안 볼 권리’를 부각시키는데 더 초점을 두었습니다. 유저가 개인 프로필 화면에 들어가서 분란글 필터링 엔진 키고 끄는 버튼을 설정할 수 있게 한 것이죠. 한 마디로 유저가 ‘이건 정말 보기 싫다’ 하면 안 볼 수 있는 모델인 것이죠.
Q4.피드백도 좀 받으셨나요?
저희가 데모 사이트를 먼저 운영했었거든요. 문제가 있는 지 없는 지 피드백을 받았었습니다. 2000 문장 정도의 에러케이스들이 쌓였었는데요. 문제가 된 단어들만 뽑아서 하이브리드 형식으로 그 단어가 들어오면 ‘혐오 발언’으로 분류되더라도 강제로 일반 발언으로 바꾸는 방식을 취하고 있습니다.
Q5. 이러한 프로젝트가 앞으로 어떤 영역에 적용될 수 있을까요? 향후 기창 님께서 앞으로 SoongsilBERT:BEEP!에 대한 향후 계획이 궁금해요!
개인적인 욕심으로는 스타일을 변환하는 쪽으로 발전시키고 싶어요. 한 가지 예시로는 텍스트로 된 상담이 들어왔는데 중간중간 거친 표현들이 있는 경우 중요한 콘텐츠만 유지하고 변환해서 상담사에게 보여 주는 프로젝트도 장기적으로 생각중입니다. 커뮤니티에 적용해보면 ‘질문 게시판’이 있잖아요. 여기에 공격적으로 글을 쓰는 경우가 있는데 질문의 중요한 내용은 유지한 채로 말투만 바꿔서 보여주는 것이죠.
먼저 해야될 일은 그라운드 서비스에 더 잘 녹여내기 위해서 서비스에 맞게 피칭하는 것도 고민중이고요. 이 과정에서 생기는 여러 이슈에 대해서도 고민중입니다. 연구적으로 봤을 때는 ‘분류’ 이외에도 사용할 수 있는 서비스적 고민도 하고 있습니다.
Q6. 아실로마 AI 원칙처럼 인류 전체에 긍정적으로 작용하는 인공지능에 대한 관심이 뜨거운데 여기에 대한 견해가 있다면요?
*아실로마 AI 원칙: 2017년 1월 생명의 미래 연구소가 주최한 콘퍼런스(Beneficial AI 2017)에서 물리학자 스티븐 호킹, 테슬라의 최고경영자 일론 머스크, 알파고를 개발한 구글 딥마인드의 데미스 하사비스 등 총 2,000명의 과학기술계 인사들이 모여 남긴 지지 서명. 이 원칙 1항에 ‘인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로훈 혜택을 주는 지능을 개발하는 것이다’라고 나와 있음.*
가장 문제가 되는 부분은 ‘공개’에서 발생한다고 봅니다. 부작용이 어떻게 발현될지는 지레 짐작으로는 알 수 없는 부분입니다. 실험실 환경이라는 용어가 있듯, 자유롭게 연구하되 실험실 밖에 나갈 때는 주의를 기울인다면 부작용을 최소화할 수 있지 않을까 생각합니다.
진행: 홍다솔(AI 네트워크 AI Ethics Manager)
AI 네트워크는 블록체인 기반 플랫폼으로 인공지능 개발 환경의 혁신을 목표로 하고 있습니다. 수백만 개의 오픈 소스 프로젝트가 라이브로 구현되는 글로벌 백엔드 인프라를 표방합니다.
최신 소식이 궁금하시다면 아래 커뮤니케이션 채널을 참고해주시기 바랍니다. 다시 한 번 감사합니다.
AI네트워크 공식 홈페이지: https://ainetwork.ai/
공식 텔레그램: telegram.com/ainetwork_kr
아이나이즈(Ainize): https://ainize.ai
유튜브: https://www.youtube.com/channel/UCnyBeZ5iEdlKrAcfNbZ-wog
페이스북:https://www.facebook.com/ainetworkofficial/
포럼:https://forum.ainetwork.ai/
AIN Price chart: https://coinmarketcap.com/currencies/ai-network/onchain-analysis/