2020년 쯤 되면 자동차는 날아다니고, 우주여행을 떠나고, 로보트가 밥도 차려주고 씻겨주기도 할 줄 알았는데...
인간처럼 행동하고 생각하는 '로봇'은 아직 멀어보이지만, AI는 이미 우리 생활 깊숙하게 들어와 있다는 사실!
가까워진 AI 기술, 과연 페미니스트의 관점으로 살펴봤을 때 아무 문제 없을까요?
과연 AI는 성차별이 뭔지 알까요?
지난1편(보러가기)에서 예고했던 것처럼 오늘 후기에서는
AI 관련 법률, AI를 구성하는 데이터, AI가 활용되는 교육 분야에 대해서 이야기해보려고 합니다.
'정보=권력, 권력=통제권' 정보를 나누는 것은 권력을 나누는 것
("데이터3법 시행 1년, '데이터 기본법' 제정 요구 높아져"라는 기사 헤드라인 캡쳐 / 이미지 출처: 전자신문 https://n.news.naver.com/article/030/0002961252)
작년 초, 개인정보보호법·정보통신망법·신용정보법이 개정되는 일명 '데이터 3법'이 통과되어다는 사실 기억하시나요?
4차 산업혁명을 앞두고 기업이 정보를 활용할 수 있는 폭을 넓히는 방향으로 법률이 개정되었는데요.
'데이터 3법'이 통과되면서 기업은 가명정보(비식별화된 개인정보)를 활용할 수 있게 되고,
개인정보보호 관련 부처를 개인정보보호위원회로 일원화하여 중복 규제를 받지 않게 되었습니다.
정보인권과 관련해 오랫동안 활동해오신 오병일 선생님(진보네트워크센터)을 모시고 이야기를 들어봤습니다.
흔히들'개인정보 보호'라고 하면, 개인정보를 활용하고자 하는 기업과 개인정보 활용을 반대하는 시민사회단체가 대립하는 것같은 구도가 생겨나지만, 활용과 보호는 대립하는 것이 아니라는 말씀이 인상적이었는데요.
현대 사회에서 개인정보는 어떻게든 활용할 수밖에 없고, 그렇다면 중요한 것은 개인정보의 주체가 확인할 수 있는 방식으로, 통제 가능한 방식으로 활용하는 게 중요하다고 이야기해주셨습니다.
개인정보와 관련하여, 최근 중요하게 이야기되는 문제는 첫째로 '나도 모르게 수집되는' 개인정보가 엄청나게 많다는 점이었는데요.
신용카드로 교통카드 이용 시 승하차 기록이 남는다거나, 인터넷 로그 기록 등 정보주체가 적극적으로 확인하지 않으면 인지하지 못 한 채
자신의 개인정보가 어딘가 집적되고, 활용될 수 있다는 점을 확인하게 되었습니다.
두번쨰로는 생체 정보 등 민감 정보가 활용되고 수집되는 것에 대한 이야기를 해주셨는데요.
특히 생체 정보의 경우 유출되어도 변경할 수 없다는 굉장히 무서운(!) 사실을 새삼 깨닫게 되었습니다. 이런 민감 정보는 더욱 경각심을 갖고 활용해야 하겠죠.
데이터 3법이 통과되면서 '비식별 조치'를 거친, 개인이 특정되지 않는 정보는 기업이 활용을 할 수 있게 되었는데요.
비식별 조치가 완전히 '비식별'을 해낼 수 있는지에 대한 이야기도 나누게 되었습니다.
지금은 식별되지 않는 정보가, 이후 기술정보의 발달로 식별 가능하게 될 수 있는 가능성도 있고
이로 인해 개인 식별이 가능해졌을 때 그 책임의 소재가 불분명하다는 점도 문제점으로 짚어졌습니다.
쓰레기를 넣으면 쓰레기가 나온다(Garbage in, garbage out)
이후 이어진 워크숍에서는 AI를 구성하는 데이터에 대한 이야기를 나눠보았는데요. 권정민 선생님(데이터 분석가)를 모시고 즐거운 시간을 가졌습니다!
이날은 '데이터 전처리'라는 개념을 다뤄보았는데요.데이터 전처리란 원자료(Raw data) 중 필요한 데이터를 꺼내고 데이터를 가공할 수 있는 형식으로 만저보는 작업으로, 데이터 윤리를 고민할 때 데이터 전처리가 굉장히 중요한 과정이라는 점을 확인하게 되었습니다.
데이터를 검색했을 때 가장 먼저 뜨는 자동완성 검색어는? (검색창에 데이터가 입력되어 있는 스마트폰 캡쳐)
기술을 개발하는데 가장 기초가 된다고 볼 수 있는 데이터의 처리와 검수를 다소 가볍게 생각하는 풍토(?)에 대해서도 짚어주셨습니다.
관점을 가진 전문 인력을 양성하려고 하기보다는, 비정규직 노동자에게, 투입되는 노동에 비해 적은 임금을 지불하는 기업이 많다고 하는데요.
실은 데이터 전처리 과정과 AI 기술을 기획하는 과정에서부터 편향성을 고려할 수 있어야 하죠.
또, 이러한 마인드셋을 가질 수 있도록 여러 방향에서의 개입이 필요합니다.
인공지능은 자연지능이 아니고, 인간이 만든 '인공'지능이라는 점을 계속해서 기억하는 것이 중요하다는 이야기도 나눠습니다.
특히 여러 워크숍에서 이야기 되었던 인공지능 기술의 위험한 점은 '인공지능 기술이 정확히 어떤 단계에서 활용되는지를 파악하기가 쉽지 않다'라는 부분을 이야기하며, 기업이나 기술을 제공하는 쪽에서 자신의 기술을 설명하고, 이용자에게 고지하게끔 하는 게 필요하겠다는 논의를 나누기도 했습니다.
데이터를 바탕으로 수포자를 예상하는 것은 맞춤 교육을 위한 예측일까 차별일까?
마지막으로 소개할 워크숍은 임완철 선생님(경상국립대)과 함께한 'AI와 교육'입니다.
교육계에서는 'AI를 가르치자'와 'AI를 이용(활용, 적용)해 가르치자' 두 방향에서 AI가 논의 되고 있다고 하는데요.
가르치고 배우는 상황에 계속해서 AI 도입을 시도하는 것은 '개별 맞춤 교육이라는 교육의 오랜 목표를 실현할 수 있지 않을까?' 하는 기대 때문이라는 이야기를 해주셨습니다.
그렇게 교육 영역에 AI를 도입하게 되었을 때 중요하게 고민해야하는 것은
1) 이것이 교육(학)적으로 무슨 의미인가? 2) 사용한 기술이 충분히 첨단인가? 였는데요.
몇 가지 사례를 통해 토론 해보았습니다.
예를 들어, AI가 수집된 데이터를 기반해 소위 수포자가 발생할 가능성을 추정해보고 그 확률이 높은 학생에게 '맞춤 교육'을 제공하는 것은 단순 예측일까, 차별일까?
또, CCTV를 통한 얼굴 인식 인공지능으로 폭력 사태를 예방할 수 있게 되었을 때, 학교 폭력 가해자가 될 가능성을 예측하는 것은
피해자를 없앨 수 있다는 의미인데 이것은 '좋은' 기술일까? 여러분은 어떻게 생각하시나요?
얼마 전, 서울시 교육청에서 공교육에 적용되는 인공지능 알고리즘의 공공성 확보를 위한 현장 가이드라인을 발표했는데요.
AI가 교육 현장에 도움되면서도 누군가를 차별하거나 혐오하지 않을 수 있도록, 정책적으로 더 많은 고민이 필요한 지금입니다.
(민우회 성평등미디어팀에서 진행하는 대중강좌 홍보물. 상세 내용은 아래 신청링크 참고)
이렇게 6번의 워크숍을 통해 AI와 AI 관련 담론을 확인하는 시간을 가져보있는데요.
워크숍을 통해 확인한 AI를 둘러싼 고민을 더 많은 페미니스트와 나누기 위해 [미디어X페미니즘 대중강좌] "AI는 성차별이 뭔지 알까?"를 진행합니다!
많은 관심과 많은 참여 부탁드립니다!
신청하러 가기: https://docs.google.com/forms/d/e/1FAIpQLSfzrULLhDQPHSlghgDX5rXQbQyQl6DPAt3iPO-MV_zkRGSQ3Q/viewform)
●●●●●
잘 읽어보셨나요? 민우회의 활동을 응원하는 가장 반가운 방법!
바로 지금, 민우회의 회원이 되어주세요!
한 사람 한 사람의 응원, 후원, 회원이 민우회에게 큰 힘이 됩니다!
2021 민우회 회원확대 캠페인 [한 사람 더하기] (8~10월)
↑위 이미지를 누르면, 민우회 정기 후원회원 가입 페이지로 넘어갑니다. (가입문의 02.737.5763 / [email protected] 민우회원팀)
2020년 쯤 되면 자동차는 날아다니고, 우주여행을 떠나고, 로보트가 밥도 차려주고 씻겨주기도 할 줄 알았는데...
인간처럼 행동하고 생각하는 '로봇'은 아직 멀어보이지만, AI는 이미 우리 생활 깊숙하게 들어와 있다는 사실!
가까워진 AI 기술, 과연 페미니스트의 관점으로 살펴봤을 때 아무 문제 없을까요?
과연 AI는 성차별이 뭔지 알까요?
지난1편(보러가기)에서 예고했던 것처럼 오늘 후기에서는
AI 관련 법률, AI를 구성하는 데이터, AI가 활용되는 교육 분야에 대해서 이야기해보려고 합니다.
'정보=권력, 권력=통제권' 정보를 나누는 것은 권력을 나누는 것
("데이터3법 시행 1년, '데이터 기본법' 제정 요구 높아져"라는 기사 헤드라인 캡쳐 / 이미지 출처: 전자신문 https://n.news.naver.com/article/030/0002961252)
작년 초, 개인정보보호법·정보통신망법·신용정보법이 개정되는 일명 '데이터 3법'이 통과되어다는 사실 기억하시나요?
4차 산업혁명을 앞두고 기업이 정보를 활용할 수 있는 폭을 넓히는 방향으로 법률이 개정되었는데요.
'데이터 3법'이 통과되면서 기업은 가명정보(비식별화된 개인정보)를 활용할 수 있게 되고,
개인정보보호 관련 부처를 개인정보보호위원회로 일원화하여 중복 규제를 받지 않게 되었습니다.
정보인권과 관련해 오랫동안 활동해오신 오병일 선생님(진보네트워크센터)을 모시고 이야기를 들어봤습니다.
흔히들'개인정보 보호'라고 하면, 개인정보를 활용하고자 하는 기업과 개인정보 활용을 반대하는 시민사회단체가 대립하는 것같은 구도가 생겨나지만, 활용과 보호는 대립하는 것이 아니라는 말씀이 인상적이었는데요.
현대 사회에서 개인정보는 어떻게든 활용할 수밖에 없고, 그렇다면 중요한 것은 개인정보의 주체가 확인할 수 있는 방식으로, 통제 가능한 방식으로 활용하는 게 중요하다고 이야기해주셨습니다.
개인정보와 관련하여, 최근 중요하게 이야기되는 문제는 첫째로 '나도 모르게 수집되는' 개인정보가 엄청나게 많다는 점이었는데요.
신용카드로 교통카드 이용 시 승하차 기록이 남는다거나, 인터넷 로그 기록 등 정보주체가 적극적으로 확인하지 않으면 인지하지 못 한 채
자신의 개인정보가 어딘가 집적되고, 활용될 수 있다는 점을 확인하게 되었습니다.
두번쨰로는 생체 정보 등 민감 정보가 활용되고 수집되는 것에 대한 이야기를 해주셨는데요.
특히 생체 정보의 경우 유출되어도 변경할 수 없다는 굉장히 무서운(!) 사실을 새삼 깨닫게 되었습니다. 이런 민감 정보는 더욱 경각심을 갖고 활용해야 하겠죠.
데이터 3법이 통과되면서 '비식별 조치'를 거친, 개인이 특정되지 않는 정보는 기업이 활용을 할 수 있게 되었는데요.
비식별 조치가 완전히 '비식별'을 해낼 수 있는지에 대한 이야기도 나누게 되었습니다.
지금은 식별되지 않는 정보가, 이후 기술정보의 발달로 식별 가능하게 될 수 있는 가능성도 있고
이로 인해 개인 식별이 가능해졌을 때 그 책임의 소재가 불분명하다는 점도 문제점으로 짚어졌습니다.
쓰레기를 넣으면 쓰레기가 나온다(Garbage in, garbage out)
이후 이어진 워크숍에서는 AI를 구성하는 데이터에 대한 이야기를 나눠보았는데요. 권정민 선생님(데이터 분석가)를 모시고 즐거운 시간을 가졌습니다!
이날은 '데이터 전처리'라는 개념을 다뤄보았는데요.데이터 전처리란 원자료(Raw data) 중 필요한 데이터를 꺼내고 데이터를 가공할 수 있는 형식으로 만저보는 작업으로, 데이터 윤리를 고민할 때 데이터 전처리가 굉장히 중요한 과정이라는 점을 확인하게 되었습니다.
데이터를 검색했을 때 가장 먼저 뜨는 자동완성 검색어는? (검색창에 데이터가 입력되어 있는 스마트폰 캡쳐)
기술을 개발하는데 가장 기초가 된다고 볼 수 있는 데이터의 처리와 검수를 다소 가볍게 생각하는 풍토(?)에 대해서도 짚어주셨습니다.
관점을 가진 전문 인력을 양성하려고 하기보다는, 비정규직 노동자에게, 투입되는 노동에 비해 적은 임금을 지불하는 기업이 많다고 하는데요.
실은 데이터 전처리 과정과 AI 기술을 기획하는 과정에서부터 편향성을 고려할 수 있어야 하죠.
또, 이러한 마인드셋을 가질 수 있도록 여러 방향에서의 개입이 필요합니다.
인공지능은 자연지능이 아니고, 인간이 만든 '인공'지능이라는 점을 계속해서 기억하는 것이 중요하다는 이야기도 나눠습니다.
특히 여러 워크숍에서 이야기 되었던 인공지능 기술의 위험한 점은 '인공지능 기술이 정확히 어떤 단계에서 활용되는지를 파악하기가 쉽지 않다'라는 부분을 이야기하며, 기업이나 기술을 제공하는 쪽에서 자신의 기술을 설명하고, 이용자에게 고지하게끔 하는 게 필요하겠다는 논의를 나누기도 했습니다.
데이터를 바탕으로 수포자를 예상하는 것은 맞춤 교육을 위한 예측일까 차별일까?
마지막으로 소개할 워크숍은 임완철 선생님(경상국립대)과 함께한 'AI와 교육'입니다.
교육계에서는 'AI를 가르치자'와 'AI를 이용(활용, 적용)해 가르치자' 두 방향에서 AI가 논의 되고 있다고 하는데요.
가르치고 배우는 상황에 계속해서 AI 도입을 시도하는 것은 '개별 맞춤 교육이라는 교육의 오랜 목표를 실현할 수 있지 않을까?' 하는 기대 때문이라는 이야기를 해주셨습니다.
그렇게 교육 영역에 AI를 도입하게 되었을 때 중요하게 고민해야하는 것은
1) 이것이 교육(학)적으로 무슨 의미인가? 2) 사용한 기술이 충분히 첨단인가? 였는데요.
몇 가지 사례를 통해 토론 해보았습니다.
예를 들어, AI가 수집된 데이터를 기반해 소위 수포자가 발생할 가능성을 추정해보고 그 확률이 높은 학생에게 '맞춤 교육'을 제공하는 것은 단순 예측일까, 차별일까?
또, CCTV를 통한 얼굴 인식 인공지능으로 폭력 사태를 예방할 수 있게 되었을 때, 학교 폭력 가해자가 될 가능성을 예측하는 것은
피해자를 없앨 수 있다는 의미인데 이것은 '좋은' 기술일까? 여러분은 어떻게 생각하시나요?
얼마 전, 서울시 교육청에서 공교육에 적용되는 인공지능 알고리즘의 공공성 확보를 위한 현장 가이드라인을 발표했는데요.
AI가 교육 현장에 도움되면서도 누군가를 차별하거나 혐오하지 않을 수 있도록, 정책적으로 더 많은 고민이 필요한 지금입니다.
(민우회 성평등미디어팀에서 진행하는 대중강좌 홍보물. 상세 내용은 아래 신청링크 참고)
이렇게 6번의 워크숍을 통해 AI와 AI 관련 담론을 확인하는 시간을 가져보있는데요.
워크숍을 통해 확인한 AI를 둘러싼 고민을 더 많은 페미니스트와 나누기 위해 [미디어X페미니즘 대중강좌] "AI는 성차별이 뭔지 알까?"를 진행합니다!
많은 관심과 많은 참여 부탁드립니다!
신청하러 가기: https://docs.google.com/forms/d/e/1FAIpQLSfzrULLhDQPHSlghgDX5rXQbQyQl6DPAt3iPO-MV_zkRGSQ3Q/viewform)
●●●●●
잘 읽어보셨나요? 민우회의 활동을 응원하는 가장 반가운 방법!
바로 지금, 민우회의 회원이 되어주세요!
한 사람 한 사람의 응원, 후원, 회원이 민우회에게 큰 힘이 됩니다!
2021 민우회 회원확대 캠페인 [한 사람 더하기] (8~10월)
↑위 이미지를 누르면, 민우회 정기 후원회원 가입 페이지로 넘어갑니다. (가입문의 02.737.5763 / [email protected] 민우회원팀)