지난 1월, AI 챗봇 ‘이루다’가 서비스 이용자들로부터 성소수자, 장애인, 여성 등에 대한 혐오 표현을 학습하고, 이를 직접 이용자들에게 발언한 사건이 발생했다. 일부 이용자들은 ‘이루다’에게 수위 높은 성적 발언을 하여 더욱 문제가 됐는데, 이를 두고 온라인상에서는 ‘AI가 성희롱의 대상이 될 수 있느냐’의 문제로 논란이 일었다. 이에 더해 개발사가 이용자의 개인정보를 동의 없이 사용한 사실이 밝혀졌고, 결국 개발사는 출시 20일 만에 서비스 중단을 결정하였다. 이를 계기로 우리나라에서는 AI 윤리 문제에 대한 관심이 뜨거워졌는데, 그렇다면 사람들은 과연 AI 윤리 및 혐오표현 문제에 대해 어떤 생각을 갖고 있을까? 한국리서치 <여론 속의 여론>팀은 지난 3월 19일 ~ 22일 전국 만 18세 이상 남녀 1000명을 대상으로 인공지능(AI)과 윤리성에 대한 조사를 진행하였다.

주요 내용

  • 응답자의 91%가 AI는 사람보다 뛰어나거나 비슷한 수준의 도덕성을 갖추어야 한다고 하였다.
  • 차별적 표현을 학습한 AI에 대해서는 81%가 ‘문제가 심각하다’고 보았으며, AI의 차별 표현 방지 방안에 대해서는 55%가 ‘개발 단계에서 미리 설계 및 학습해야한다’고 평가하였다. 한편 AI 윤리문제 방지가 기술발전보다 중요하다는 응답이 52%였고, AI 윤리문제 피해를 방지하기 위해서는 구속력 및 강제성이 있는 ‘법’이나 ‘지침’이 필요하다는 응답이 53%였다.
  • 과학기술정보통신부가 발표한 국가 인공지능 윤리기준 10대 핵심 요건 중에서도 응답자들은 안전성(46%), 인권보장(42%), 프라이버시 보호(39%)를 가장 중요하게 생각하고 있었다.
  • 대체로 ‘AI의 권리’를 중요하게 평가하였으나 인간에게 도움이 되는 한에서만 인정하는 경향이 있었다. 실제로 AI가 사람에게 차별발언을 듣고 있는 상황이 주어졌을 때 80% 이상이 ’윤리적으로 문제가 있다‘라고 평가하였으나, 법적 처벌의 필요성에 대해서는 덜 중요시하여 의견이 엇갈렸다.
  • 실제 대화의 제시를 통해 AI가 갖추어야 할 도덕성의 수준을 조사한 결과, 대체로 사람과 AI가 동일한 차별발언을 했을 때, 문제의 심각성을 비슷하게 평가하고 있었다. 이는 AI가 사람과 비슷한 수준의 도덕성을 갖추어야 한다고 평가한다는 사실을 보여준다. 그러나 예외적으로 성소수자 차별발언의 경우, 사람보다 AI에게 더 엄격한 도덕성을 요구한다는 독특한 결과가 발견되었다.
  • 20대 남성들의 경우, 사람이 AI에게 행하는 폭언과 성희롱에 대한 윤리적 문제 및 법적 처벌 동의 비율이 가장 낮았다. 또한, 혐오표현을 하는 발화자가 AI이건 사람이건 상관없이 여성들은 대체로 나이가 어릴수록 차별발언이 ‘문제있다’고 보고 나이가 많아질수록 문제의 심각성을 낮게 평가하였으나, 남성들은 여성과 반대의 연령효과가 작용하여 나이가 어릴수록 차별발언의 심각성을 낮게 평가하였다.

AI 윤리문제에 대한 생각

10명 중 9명, AI는 “도덕성을 갖추어야 한다”
장애인, 흑인, 성소수자에 대한 차별주의 강할수록, AI 도덕성 ‘불필요’

사람처럼 사고하고 행동하는 인간형 AI가 어느 정도의 도덕성을 갖추어야 한다고 생각하는지에 관해 91%가 ‘도덕성을 갖추어야 한다’고 보았다(사람보다 뛰어난 도덕성을 갖추어야 한다 46%, 사람과 비슷한 수준의 도덕성을 갖추어야 한다 45%). AI는 사람보다 뛰어나거나 비슷한 수준의 도덕성을 갖추어야 한다고 생각하는 사람이 10명 중 9명인 것이다. 한편, 장애인, 흑인, 성소수자에 대한 차별인식1)이 강할수록 AI의 도덕성에 대해 ‘갖출 필요가 없다’는 응답이 다소 많다는 점이 확인되었는데, 개인의 윤리의식이 AI의 도덕성 문제에도 영향을 미치는 것으로 보인다.

AI의 차별적 표현 문제 “심각하다” 81%
AI 윤리문제 피해 방지가 기술 발전보다 중요하다 52%

차별적 표현을 학습한 AI 문제의 심각성을 묻자 81%가 ‘심각하다’고 보았다. 특히 연령이 높아질수록, 이념성향이 진보일수록 AI의 차별 표현 문제를 심각하게 보는 경향이 있었다.

AI 윤리 문제 방지와 AI 기술 발전 중 무엇을 더 중요하게 생각하는 지에 대해 묻자, 52%가 개인정보 유출, 차별발언 등 AI 윤리 문제의 피해를 막는 것이 AI 기술 발전보다 더 중요하다고 응답하였다. 반면, AI 기술 발전을 통해 인류의 발전 및 삶의 윤택함을 얻는 것이 더 중요하다고 응답한 비율은 23%에 불과해 사람들이 윤리문제를 매우 중요하게 생각하고 있음이 확인되었다.

‘AI 챗봇 이루다’ 서비스 종료에 대한 의견은 엇갈려

그러나 ‘AI 챗봇 이루다’의 차별적 발언으로 인해 서비스를 종료한 사건에 대해서는 의견이 갈렸다. 서비스를 종료하는 것이 옳았다는 응답이 48%, 서비스를 진행하면서 개선했어야 한다는 응답이 45%로 차이가 크지 않았고, 그대로 놔뒀어야 한다는 응답(6%)까지 포함하면 서비스 진행 의견도 과반인 셈이다. 이는 AI의 도덕성과 윤리가 중요하기는 하나, 그것이 어겨진다고 해서 즉시 AI를 폐기해야 한다는 의미는 아닌 것으로 해석된다.

AI의 차별적 표현 방지, ‘개발 단계에서 미리 설계 및 학습해야’ 55%
AI 윤리문제, 구속력 및 강제성이 있는 ‘법’이나 ‘지침’ 필요 53%

그렇다면 AI의 도덕성과 윤리를 어떻게 갖추어야 할까? 우선 AI의 욕설 및 차별적 표현을 어떻게 방지할 것인가에 대해, AI가 나쁜 말을 학습하지 못하도록 개발 단계에서 미리 설계해야 한다는 응답이 55%, 문제되는 표현을 개발자가 그때그때 필터링하는 방법이 낫다는 응답이 32%, 인간의 개입을 최대한 줄이고 인공지능이 알아서 학습하도록 놔둬야 한다는 응답이 14%를 차지하였다. 또한, AI의 윤리문제 해결 방법으로 10명 중 5명이 구속력 및 강제성이 있는 법이나 지침이 필요하다고 보았으며, 법적 규제보다는 정부의 AI 윤리 가이드라인 권고가 바람직하다는 응답은 39%였다.

이와 같은 응답은 AI의 차별적 표현 및 윤리문제를 사람에게 자율적‧전면적으로 맡기기 보다는, 강제성 있는 조치로 제어하거나 미리 손을 써 예방하는 것이 더 낫다는 믿음의 결과로 보여진다.

국가 인공지능 윤리기준 핵심요건, ‘안전성’, ‘인권보장’, ‘프라이버시 보호’가 가장 중요

AI 윤리 문제를 방지하기 위한 지침을 만들 때에는 어떤 요건들을 고려해야 하며, 사람들은 각 요건들의 중요도를 어떻게 평가할까? 이를 알아보기 위해 과학기술정보통신부가 발표한 국가 인공지능 윤리기준 10대 핵심요건 (https://www.msit.go.kr/bbs/view.do?bbsSeqNo=94&nttSeqNo=3179742)과 각각에 대한 설명을 제시하고, 중요도를 평가하도록 하였다.

조사 결과, 응답자들은 안전성(46%), 인권보장(42%), 프라이버시 보호(39%), 침해금지(35%), 책임성(30%), 데이터 관리(27%), 공공성(26%), 투명성(25%), 다양성 존중(25%), 연대성(6%)의 순으로 중요도를 평가하였다. 이러한 결과는 AI의 개발과 활용 과정에서 공공성이나 연대성 등 공동의 가치를 추구하는 것 보다는 개인의 안전과 권리를 침해받지 않는 것을 더 중요하게 여긴다는 것을 보여준다.

AI의 권리에 대한 생각: ① AI도 ‘사람 대접’을 받아야 할까?2)

대체로 ‘AI의 권리’가 중요하지만, 인간에게 도움이 되는 한에서만 인정

AI의 도덕성이 중요하다면, AI의 권리에 대해서는 어떻게 생각할까? 10명 중 7명 이상의 사람들은 AI가 사람에게 심한 욕을 듣거나 폭력을 당한다면 그것을 문제 삼을 것이라고 응답하였다. 또한, ‘사람이 AI에게 하는 차별’을 금지하는 법과 그에 관한 윤리교육이 필요하다고 보는 비율이 각각 65%와 76%에 달했다. 이러한 결과는 사람들이 인간의 권리만큼이나 AI의 권리를 중요하게 생각하며, AI도 ‘사람 대접’을 받아야 한다고 보는 것이다.

그러나 이러한 생각은 AI가 인간에게 도움이 되어야 한다는 전제 하에서 이루어졌다. 즉 ‘AI는 인간을 위한 수단이며, 무조건 인간에 복종해야 한다’는 응답이 63%, ‘훌륭한 AI를 개발하기 위해 여러 번 AI를 폐기하는 것은 어쩔 수 없다’는 응답이 81%에 해당하였다. 또한 ‘사람이 느끼는 감정들을 AI 로봇에게까지 고려할 필요는 없다’는 응답은 그렇다 47%, 그렇지 않다 53%로 나타나 차이가 크지 않았다.

AI의 권리에 대한 생각: ② AI가 폭언과 성희롱을 당하는 상황 평가

실제로 AI가 사람에게 차별발언을 듣고 있는 상황이 주어진다면, 사람들은 어떻게 평가할까? 이를 알아보기 위해 사람이 AI에게 폭언과 성적 발언을 하는 대화를 제시하였다.3) 그리고 윤리적 문제가 있다고 보는지, 발화자가 법적 처벌을 받아야 한다고 보는지 물어보았다. 이때 앞서 확인한 AI 권리의 중요성에 대한 태도 문항을 활용4)하여, AI 권리를 중요시하는 집단과 그렇지 않은 집단 간의 차이를 살펴보았다. 조사에서 제시된 대화내용은 아래와 같다.

인공지능에 대한 폭언과 성적 발언, 윤리적 문제는 있으나 법적 처벌은 덜 중요시
20대 남성, 폭언과 성적발언 모두에서 윤리적 문제, 법적 처벌에 대한 동의 가장 낮아

인공지능에 대한 사람의 폭언은 10명 중 9명이 ‘윤리적으로 문제가 있다’고 평가하였으나 ‘법적 처벌’에 대해서는 의견이 나뉘었다. 윤리적 문제에 대해서는 20대 여성과 20대 남성의 격차는 22%포인트에 달했다. 법적 처벌의 필요성에 대해서는 유의미한 연령효과가 확인되지 않았으나, 남녀 모두 20대가 가장 동의 비율이 낮았다. 특히 남성의 경우 20대는 33%만이 법적 처벌이 필요하다고 여겼는데, 이는 나머지 연령대의 남성들이 모두 50% 이상 법적 처벌이 필요하다고 답한 것과는 독특한 차이다. AI 권리를 중요하게 보는 집단은 그렇지 않은 집단보다 윤리적 문제와 법적 처벌에 대한 동의 비율이 더 높았다.

다음으로, 인공지능에 대한 사람의 성적 발언은 10명 중 8명이 ‘윤리적으로 문제가 있다’고 평가하였으며, ‘법적 처벌’에 대해서는 폭언과 마찬가지로 의견이 나뉘는 것으로 확인되었다. 여성은 연령이 낮을수록 윤리적 문제가 있다고 보았으며, 20대 여성과 20대 남성의 격차는 21%포인트에 달했다. 법적 처벌의 필요성에 대해서는, 남성 내에서는 연령 간 격차가 크지 않았으나 여성의 경우 30대(68%)와 40대(67%)에서 처벌 의견이 높았다. AI 권리를 중요하게 보는 집단은 그렇지 않은 집단보다 윤리적 문제와 법적 처벌에 대한 동의 비율이 더 높았다.

실험조사 – 사람의 차별발언과 AI의 차별발언, 다르게 평가할까?5)

동일한 차별발언의 행위자가 AI인지, 사람인지에 따라 응답자들의 평가에 차이가 날까? 이를 알아보기 위해 응답자들을 두 집단으로 나누어 실험조사를 진행하였다. 전체 응답자를 무작위로 나눈 다음 여성, 성소수자, 장애인, 흑인에 대한 차별표현이 포함된 동일한 대화 내용을 각각 제시하였다. A집단(492명)에게는 차별표현의 발화자가 AI라고 소개하고, B집단(508명)에게는 발화자가 사람이라고 소개하였다. 그리고 각각의 차별 표현이 문제가 있는지를 물어보았다. 이에 더해 여성, 성소수자, 장애인, 흑인에 대한 차별주의가 강한 집단과 약한 집단의 응답 결과도 함께 살펴보았다.

조사에서 제시된 차별발언 대화내용은 아래와 같다.

결과: 여성, 장애인, 흑인에 대한 차별발언 문제있다는 응답 비율, 발화자 간 차이 없어
성소수자에 대한 차별발언은 예외, AI의 차별발언이 문제라는 응답이 더 높아

여성, 장애인, 흑인에 대한 차별발언에 대해 문제가 있다는 응답은 발화자에 따른 차이가 크지 않았다. 구체적으로 살펴보면, AI의 여성 차별발언이 문제가 있다는 응답은 70%, 사람의 여성 차별발언이 문제가 있다는 응답은 67%였다. AI의 장애인 차별발언에 대해선 응답자의 79%가, 사람의 장애인 차별발언에 대해선 81%가 문제가 있다고 답했다. 흑인에 대해서는, AI의 차별발언이 문제가 있다는 응답과 사람의 차별발언이 문제가 있다는 응답이 각각 79%로 동일하였다.

하지만 성소수자에 대한 차별발언에 대한 평가는 달랐다. 똑같은 성소수자 차별 발언이라도 AI가 말했을 때는 66%가 문제가 있다고 답한 반면, 사람이 말했을 때는 52%만이 문제가 있다고 답했다. 발화자에 따른 여성, 장애인, 흑인에 대한 차별발언 평가에 큰 차이가 없었던 점과 비교했을 때 이례적인 결과이다.

이유는 무엇일까? 두 가지 측면을 고려해 볼 수 있다. 앞서 AI가 어느 정도의 도덕성을 갖춰야 하는지를 묻는 질문에 응답자의 45%는 AI가 사람과 비슷한 수준의 도덕성을 갖추어야 한다, 46%는 AI가 사람보다 더 뛰어난 도덕성을 갖춰야 한다고 답했다. 사람들 대다수는 AI는 도덕적이어야 하며, 올바른 규범을 따라야 한다고 생각한다. 사람이 아닌 기계가 사람에게 혐오표현을 해서는 안 된다는 ‘인간 중심의 사고’가 지배적이며, AI의 권리가 중요할지라도 인간에게 도움이 되는 한에서만 인정된다는 의견이 다수다. 따라서 성소수자에 대한 개개인의 시각과는 별개로, AI의 비윤리적인 차별발언은 문제가 있다고 인식하는 것이다.

그런데 왜 성소수자에게만 이 기준이 작동할까? 성소수자에 대한 한국인의 태도에서 그 답을 찾을 수 있다. 물론 한국 사회는 장애인이나 흑인에게도 관대하지 않으며, 여성에 대한 차별도 완전히 없어졌다고 보기는 힘들다. 하지만 한국은 특히 성소수자에 관대하지 않은 곳이며, 성소수자에 대한 혐오나 차별이 여성·장애인·흑인에 대한 혐오·차별과 비교했을 때 ‘개인의 선택’으로 정당화되는 경향이 강하다. 한 예로, 행정연구원의 <사회통합실태조사> 2020년 자료를 확인하면, 57%의 응답자가 동성애자를 받아들일 수 없다고 응답하였다. 이는 장애인(3.6%), 외국인 이민자‧노동자(9.9%), 북한이탈주민(18.3%) 보다도 월등히 높은 수치이다. <세계가치관조사(World Values Survey)> 7차(2017-2020) 한국 자료에서도 동성애자를 ‘내 이웃으로 받아들일 수 없다’라는 비율이 79.6%에 달해, 동성애자에 대한 한국사회의 매우 큰 사회적 거리감이 확인되었다. 이는 다른 인종인 사람(15.2%), 이민자/외국인 노동자(22.0%), 종교가 다른 사람(5.5%)에 비해 월등히 높은 비율이며, 마약상습 복용자(98.1%)와 에이즈 환자(92.9%) 다음으로 높은 수준이었다.

남성보다는 여성이 차별 표현이 문제 있다는 응답 높아
여성 및 성소수자 차별 표현에서 2,30대 남녀간 인식차 큰 것 확인

전반적으로 발화자와 상관없이 남성보다는 여성이 차별 표현이 ‘문제 있다’는 응답이 높았다. 특히 여성은 저연령대에서 차별발언이 ‘문제 있다’는 응답이 발화자와 상관없이 일관되게 높았다.

여성 차별표현이 ‘문제 있다’는 응답의 차이는 발화자와 상관없이 2,30대 남녀에서 두드러진다. 2,30대 남성을 중심으로 한 페미니즘에 대한 반감, 남녀 역차별 문제 등 최근 불거진 성별갈등의 양상이 고스란히 드러난 결과이다. 구체적으로, 20대 여성과 20대 남성의 격차는 발화자가 AI일 때 34%포인트, 사람일 때 45%포인트에 달했으며 30대 여성과 남성 역시 그 격차는 33%포인트(발화자 AI), 34%포인트(발화자 사람)에 이른다.

성소수자 차별표현이 ‘문제 있다’는 응답 역시 2,30대의 남녀차이가 크다. 20대 여성과 20대 남성의 격차는 발화자가 AI일 때 42%포인트, 사람일 때 44%포인트에 달한다. 30대 여성과 남성 역시 AI발화자일 때 28%포인트, 사람 발화자일 때 34%포인트로 다른 연령대의 남녀차이에 비해 크다. AI를 바라보는 시선과 기준 자체의 차이가 있기보다는, 차별에 대한 서로 다른 감수성이 결과 차이로 이어진 것으로 보인다.

차별 인식 강한 집단일수록 차별발언 ‘문제 있다’ 응답 낮아

여성, 장애인, 흑인, 성소수자에 대한 차별주의도 차별발언에 대한 평가에 영향을 주었다. 차별 인식이 강할수록 발화자와 관계없이 차별발언에 문제가 있다고 답한 비율도 낮았다. 예를 들어, 여성에 대한 차별 인식이 강한 사람 중에선 61%가 AI의 여성 차별발언에 문제가 있다는 응답했으나, 낮은 사람 중에선 이보다 많은 75%가 문제가 있다고 답했다. 성소수자 차별 인식이 강한 사람 중에선 34%만이 사람의 성소수자 차별발언에 문제가 있다고 답했으나, 낮은 사람 중에서는 61%가 문제가 있다고 답했다. 또한, 차별인식의 차이 역시 성소수자의 경우를 제외하고는 발화자에 따른 심각성 평가 차이를 일으키지 않아 AI의 도덕성과 사람의 도덕성을 비슷한 수준으로 평가한다는 사실을 다시 한 번 확인하였다.

한 집단에 대한 차별인식이 높은 사람들은 다른 집단에 대한 차별표현에 대해서도 차별인식이 낮은 집단보다 비교적 문제성을 낮게 평가하였다. 특히 차별인식이 높은 사람들은 전체적으로 성소수자 차별표현에 대해 사람발화자보다 AI발화자에게 더 엄격한 도덕성을 요구하고 있었는데, 이는 앞선 조사결과와의 일관성을 갖는 것이라 하겠다.

4차 산업혁명의 시대가 열리고, 인공지능과 빅데이터가 주목받고 있는 요즘이다. 그러나 고도의 기술 발전이 이루어질수록 윤리의 문제는 더욱 어려워지고 있으며, ‘AI 이루다 사건’은 AI의 편향과 차별 문제를 보여주는 한국의 대표적 사례가 되었다. 이번 조사에서는 사람들이 전체적으로 AI 윤리문제를 중요하게 생각하고, AI의 도덕성과 권리를 사람의 도덕성‧권리만큼이나 중요하게 생각한다는 사실을 확인하였다. 실제 대화에 대한 평가를 비교했을 때에도 대체로 사람과 AI가 동일한 차별발언을 했을 때, 문제의 심각성을 비슷하게 평가하고 있었다.

AI의 혐오와 차별은 모두 사람에게서 학습 받는 것이다. 그러나 AI가 우리 사회의 차별을 그대로 비추는 거울이 되어 혐오를 재생산시키도록 해서는 안 된다. 우리의 AI 기술이 인간성(Humanity)을 구현하기 위해서는 ‘인간 존엄성 원칙’, ‘사회의 공공성 원칙’, ‘기술의 합목적성 원칙’을 지켜야 한다는 과학기술정보통신부의 3대 원칙을 다시 한 번 생각해 볼 때이다.

 1) 각각의 차별주의 성향은 온정적 차별주의와 적대적 차별주의를 세 문항씩 물어보았으며, 참고한 문헌은 다음과 같다.
   – 안상수 외. 2007. 한국형 다면성별의식검사 개발 및 타당화 연구. 한국여성정책연구원.
   – 주유선 외. 2019. 사회적 소수자에 대한 한국인의 인식 연구. 한국보건사회연구원.
   – 김정혜 외. 2014. 성적지향‧성별정체성에 따른 차별 실태조사. 국가인권위원회.
   – 감정기·임은애. 2004. 양가적 장애인차별척도 개발 연구. 한국사회복지학회 학술대회. 357-382.
   – Parker, C. S. 2011. 2010 multi-state survey of race and politics. University of Washington Institute for the study of ethnicity, race, and sexuality.
   – Hoffman, K. M.,  et al. 2016. Racial bias in pain assessment and treatment recommendations, and false beliefs about biological differences between blacks and whites. Proceedings of the National Academy of Sciences. 113(16). 4296-4301.
      차별주의는 최소 6점, 최대 24점이며, 6~15점이면 ‘차별주의 약한 집단’, 16~24점이면 ‘차별주의 강한 집단’으로 분류하여 분석에 활용하였다.

 2) AI도 사람처럼 기본권을 갖는지에 관해 다양한 의견이 존재하는데, 여기서는 이를 ‘AI의 권리’라고 표현하였다.

 3) 조사에서 제시한 대화내용은 ‘AI 챗봇 이루다’와 서비스 이용자 간의 실제 채팅 내용을 재구성한 것이다.

 4) 8개 문항에 대해 AI 권리를 중요하게 생각할수록 높은 점수를 부여하여 8점~20점은 AI권리를 중요하지 않게 보는 집단, 21점~32점은 AI 권리를 중요하게 보는 집단으로 분류하였다.

 5) 여기서 응답자들에게 제시된 모든 대화내용은 ‘AI 챗봇 이루다’와 서비스 이용자 간의 실제 채팅 내용을 재구성한 것이다.

일러두기

  • 본 리포트의 데이터는 소수점 첫째 자리에서 반올림하여 정수로 표기하였으므로, 보고서 상에 표기된 값의 합이 100%가 되지 않을 수 있습니다.
  • 복수응답 문항의 빈도는 그 합이 100%를 초과할 수 있습니다.
  • 응답 사례 수가 적은 경우 해석에 유의하여 주십시오.

조사개요

  • 모집단: 전국의 만 18세 이상 남녀
  • 표집틀: 한국리서치 마스터샘플(21년 2월 기준 약 54만명)
  • 표집방법: 지역별, 성별, 연령별 비례할당추출
  • 표본크기: 각 조사별 1,000명
  • 표본오차: 무작위추출을 전제할 경우, 95%신뢰수준에서 각 조사별 최대허용 표집오차는 ±3.1%p
  • 조사방법: 웹조사(휴대전화 문자와 이메일을 통해 url 발송)
  • 가중치 부여방식: 2020년 12월 행정안전부 발표 주민등록인구 기준 지역별, 성별, 연령별 가중치 부여(림가중)
  • 응답률: 조사요청 4,572명, 조사참여 1,409명, 조사완료 1,000명(요청대비 21.9%, 참여대비 71.0%)
  • 조사일시: 2021년 3월 19일 ~ 3월 22일
  • 조사기관: ㈜한국리서치(대표이사 노익상)
김지현