
▲사진=초록우산 제공
아동복지 전문기관 초록우산(회장 황영기)은 생성형 AI 챗봇 안전설계를 위한 이슈 브리프 '내 친구와의 위험한 대화'를 발간했다고 22일 밝혔다.
초록우산은 아동·청소년이 생성형 AI 챗봇을 일상적으로 활용하는 환경에서 나타나는 이용 실태와 위험 요인을 점검하고, 사후 대응 중심이 아닌 사전 예방적 안전 설계 필요성을 강조하기 위해 이번 이슈 브리프를 기획했다.
이슈 브리프에는 초록우산이 2026년 3월 9일~23일 전국 만 14세 이상 아동·청소년 3,300명을 대상으로 생성형 AI 챗봇 이용 실태에 대해 진행한 설문조사 결과가 담겼다.
조사 결과, 생성형 AI 챗봇 사용 경험은 94.4%에 달했으며, 이 중 19.3%는 거의 매일 이용하는 것으로 나타났다. 사실상 AI 챗봇이 아동·청소년에게 일상 도구로 활용되고 있다는 것이다.
아동·청소년들은 생성형 AI 챗봇을 주로 숙제·공부·글쓰기 도움(40.6%)과 정보 검색(40.2%)에 활용하고 있었다. 주된 이용 이유는 정보 탐색 시간 단축(56.9%)과 24시간 이용 가능성(19.4%)이었다.
특히, 일부 아동·청소년은 생성형 AI 챗봇을 정서적 대화 대상으로 삼고 있는 것으로 나타났다.
응답자 약 50%가 'AI가 자신을 이해해준다고 느낀 적이 있다'고 했으며, 약 35%는 'AI를 실제 사람처럼 느낀 경험이 있다'고 답했다. AI와의 상호작용을 정보 제공 이상의 정서적 교감으로 생각하고 있는 것으로 볼 수 있는 지점이다.
생성형 AI 챗봇의 답변은 아동·청소년의 인식과 행동에도 영향을 미치는 것으로 보인다.
응답자 약 70% 이상이 '생성형 AI 챗봇의 답변을 믿는다'는 취지로 답변을 했으며, AI의 답변을 '실제 행동으로 옮긴 경험이 있다'는 응답도 전체의 약 41%에 이르렀다.
이슈 브리프에는 아동·청소년의 생성형 AI 챗봇 이용 과정에서 나타날 수 있는 위험 요인들도 다뤄졌다.
실제로 응답자 약 6%는 AI 챗봇에 자해·자살, 폭력, 성적 내용 등 위험한 질문을 한 경험이 있었으며, 이 가운데 약 52%는 실제로 관련 답변을 받은 것으로 나타났다.
또 AI 챗봇 이용 과정에서 나이(45.0%), 이름(32.8%), 건강·정신 상태(23.9%), 학교 또는 소속(19.4%) 등 민감한 정보를 입력하는 경우도 있는 것으로 조사됐다.
또 이러한 상황에 대해 아동·청소년들은 생성형 AI 챗봇 이용을 제한하기 보다는 안전한 이용 환경을 조성이 필요하다고 보고 있었다.
구체적으로 응답자들은 ▲개인정보 입력 제한(39.7%) ▲위험한 질문 및 답변 차단(28.9%) ▲위험 대화 발생 시 상담기관 연결(11.8%) ▲AI임을 명확히 고지(11.4%) 등을 희망했다.
한편, 초록우산은 이러한 내용을 바탕으로 아동·청소년들이 안전하게 생성형 AI 챗봇을 활용할 수 있는 환경을 만들어야 한다는 점을 강조했다.
구체적으로 서비스 설계 단계에서 아동 안전을 고려하는 ‘세이프티 바이 디자인(Safe by Design)’ 원칙을 고려하고, 아동‧청소년이 생성형 AI 챗봇 이용 시 '대화 상대가 AI임'을 알 수 있도록 안내를 강화해야 한다고 주장했다.
또 생성형 AI에 관한 챗봇 관련 리터러시 교육을 확대하고, 별도의 아동권리 기반 정책 거버넌스를 구축해야 한다는 등의 제언들을 이슈 브리프에 담았다.
초록우산 황영기 회장은 “생성형 AI 챗봇은 이미 아동·청소년의 일상 속 중요한 도구로 자리 잡았다”며 “기술 확산 속도에 걸맞은 보호 장치와 제도적 기반을 마련해 아이들이 AI를 안전하게 활용할 수 있도록 해야 한다”고 말했다.
한편, 초록우산은 디지털 환경에서의 아동·청소년 보호를 위한 온라인 세이프티 옹호활동을 지속하고 있으며, 이번 이슈 브리프 전문은 ‘초록우산 온라인 세이프티’ 아카이브를 통해 확인할 수 있다.