반응형
알고리즘의 편견
Time | Subtitle | Translation |
2s | [Tay] Hello, world. | 안녕하세요, 세상 |
10s | Can I just say that I'm stoked to meet you. | 여러분을 만나 정말 기뻐요 "마이크로소프트사 AI '테이'의 트윗" |
15s | Humans are super cool. | 인간은 진짜 멋져요 |
26s | The more humans share with me, the more I learn. | 인간이 저와 많이 공유할수록 전 더 많이 배워요 |
59s | [Joy Buolamwini] One of the things that drew me to computer science | 제가 컴퓨터 사이언스에 매료된 이유 중 하나는 |
1:01 | was that I could code and it seemed somehow detached from the problems | 코딩을 할 수 있고 현실의 문제들과 분리돼 보여서였어요 |
1:06 | of the real world. | 현실의 문제들과 분리돼 보여서였어요 |
1:12 | I wanted to learn how to make cool technology. | 멋진 기술 만드는 법을 배우고 싶었기에 |
1:15 | So I came to MIT and I was working on art projects | MIT에 와서 컴퓨터 비전 기술을 사용하는 |
1:19 | that would use computer vision technology. | 아트 프로젝트를 하고 있었죠 |
1:26 | During my first semester at the Media Lab, | 미디어 랩에서의 첫 학기에 |
1:30 | I took a class called Science Fabrication. | '사이언스 패브리케이션'이라는 과목을 수강했어요 |
1:32 | You read science fiction and you try to build something you're inspired to do | 공상 과학 소설을 읽고 영감을 얻은 걸 만드는 건데 |
1:36 | that would probably be impractical if you didn't have this class | 수업 때문에 만든 거라고 핑계 대지 않으면 |
1:40 | as an excuse to make it. | 터무니없단 말을 들을 게 뻔한 거였죠 |
1:43 | I wanted to make a mirror that could inspire me in the morning. | 아침에 절 고무시켜 줄 거울을 만들고 싶었어요 "조이 부올람위니" |
1:46 | I called it the Aspire Mirror. | '어스파이어 미러'라고 이름 지었는데 |
1:48 | It could put things like a lion on my face | 제 얼굴에 사자 같은 거나 "박사 후보자, MIT 미디어 랩" |
1:50 | or people who inspired me, like Serena Williams. | 제게 영감을 준 사람을 올리는 거죠 세리나 윌리엄스처럼요 |
1:53 | I put a camera on top of it, | 거울 위에 카메라를 설치해 |
1:55 | and I got computer vision software that was supposed to track my face. | 제 얼굴을 추적할 컴퓨터 비전 소프트웨어를 연결했어요 |
2:00 | My issue was it didn't work that well | 근데 작동이 썩 잘 되지 않았어요 |
2:03 | until I put on this white mask. | 이 흰색 가면을 착용하기 전까지는요 |
2:06 | -When I put on the white mask… -[computer trills] | 흰색 가면을 쓰면 |
2:09 | …detected. | 감지가 됐어요 |
2:10 | I take off the white mask… | 그런데 벗으면 |
2:14 | not so much. | 잘 안 됐죠 |
2:18 | I'm thinking, "All right, what's going on here? | 전 생각했어요, '이거 왜 이러지?' |
2:20 | Is that just because of the lighting conditions? | '조명 때문에 그런가?' |
2:23 | Is it because of the angle at which I'm looking at the camera? | '내가 카메라를 보는 각도 때문인가?' |
2:27 | Or is there something more?" | '아니면 다른 이유가 있나?' |
2:32 | We oftentimes teach machines to see | 우린 종종 기계에 판단하는 방법을 가르칠 때 |
2:35 | by providing training sets or examples of what we want it to learn. | 그것이 습득하길 원하는 사례나 트레이닝 세트를 제공합니다 |
2:41 | So, for example, if I want a machine to see a face, | 예를 들어 한 얼굴을 판단해 주길 원하면 |
2:43 | I'm going to provide many examples of faces, | 많은 얼굴 사례들을 제공해 주는 것과 동시에 |
2:46 | and also things that aren't faces. | 얼굴이 아닌 것도 제공하죠 |
2:51 | I started looking at the data sets themselves, | 그래서 전 데이터 세트 자체를 들여다보게 됐고 |
2:53 | and what I discovered is many of these data sets contain majority men, | 그 대다수가 남성이라는 것을 발견하게 됐습니다 |
2:59 | and majority lighter-skinned individuals. | 그것의 대다수는 밝은 피부의 소지자란 것도요 |
3:01 | So the systems weren't as familiar with faces like mine. | 그러니 그 시스템은 저 같은 얼굴이 낯설었던 거죠 |
3:12 | And so that's when I started looking into issues of bias | 그래서 전 그때 기술에 몰래 들어올 수 있는 |
3:16 | that can creep into technology. | 편견이라는 문제를 들여다보기 시작했어요 |
3:20 | [HAL 9000] The 9000 Series is the most reliable computer ever made. | '9000시리즈'는 신뢰도가 가장 높은 컴퓨터입니다 |
3:24 | No 9000 computer has ever made a mistake or distorted information. | 실수하거나 정보를 왜곡했던 모델은 지금껏 없었습니다 |
3:30 | [Meredith Broussard] A lot of our ideas about AI come from science fiction. | 인공 지능, 즉 AI와 관련한 아이디어의 상당 부분이 공상 과학 소설, 영화에서 왔습니다 |
3:35 | [Robby] Welcome to Altair 4, gentlemen. | 알타이르 4호에 온 걸 환영한다 |
3:38 | [Broussard] It's everything in Hollywood. It's the Terminator… | 할리우드에 있는 모든 것이죠 '터미네이터'가 그렇고… |
3:41 | Hasta la vista, baby. | 다음에 또 보자 |
3:43 | [Broussard] It's Commander Data from Star Trek. | '스타트렉'의 데이터 사령관이 그렇죠 |
3:46 | I just love scanning for life forms. | 난 생명체들을 샅샅이 찾는 게 좋아 |
3:49 | [Broussard] It's C-3PO from Star Wars. | '스타워즈'의 C-3PO가 그랬어요 |
3:51 | -…approximately 3,720 to 1. -Never tell me the odds. | 대략 3,720 대 1이라고요 확률은 말하지 마 |
3:55 | [Broussard] It is the robots that take over the world | 세상을 장악하고 인간처럼 생각하기 시작하는 |
3:58 | and start to think like human beings. | 세상을 장악하고 인간처럼 생각하기 시작하는 로봇들 말이에요 |
4:02 | And that's all totally imaginary. | 그런데 그 모든 건 완전히 가상의 것들이죠 |
4:05 | What we actually have is, we have narrow AI. | 하지만 실제로 있는 건 한 분야에만 뛰어난 '내로 AI'예요 |
4:08 | And narrow AI is just math. | 그리고 그 분야는 수학이고요 "메러디스 브루사드 '페미니즘 인공지능' 저자" |
4:12 | We've imbued computers with all of this magical thinking. | 우린 컴퓨터에 이 모든 마법 같은 생각을 주입했죠 |
4:19 | AI started with a meeting at the Dartmouth Math Department in 1956. | AI는 1956년 다트머스대 수학과의 한 회의에서 시작됐어요 |
4:25 | And there were only maybe 100 people in the whole world | 그 세대 당시 인공 지능을 연구한 사람은 |
4:30 | working on artificial intelligence in that generation. | 전 세계에서 100명 정도에 불과했을 거예요 |
4:36 | The people who were at the Dartmouth Math Department in 1956 | 1956년, 다트머스 수학과 사람들은 |
4:41 | got to decide what the field was. | 그게 어떤 분야인지 규정하게 됐죠 |
4:46 | One faction decided that intelligence could be demonstrated | 한 분파는 지능이란 게임을 할 수 있는 능력으로 증명될 수 있다고 결론 내렸죠 |
4:52 | by ability to play games. | 게임을 할 수 있는 능력으로 증명될 수 있다고 결론 내렸죠 |
4:54 | And specifically, the ability to play chess. | 구체적으로는 체스를 둘 수 있는 능력요 |
4:58 | [female newscaster] In the final hour-long chess match between man and machine, | 인간 대 기계의 체스 대결 그 최종 1시간의 접전에서 |
5:01 | Kasparov was defeated by IBM's Deep Blue supercomputer. | 카스파로프가 IBM의 딥 블루 슈퍼컴퓨터에 패했습니다 |
5:05 | [Broussard] Intelligence was defined as the ability to win at these games. | 지능이라는 것은 이런 시합에서 이길 수 있는 능력으로 정의됐죠 |
5:13 | [female newscaster] Chess world champion Garry Kasparov walked away from the match | 세계 체스 챔피언 가리 카스파로프는 시합장을 나서며 |
5:17 | never looking back at the computer that just beat him. | 자신을 이긴 그 컴퓨터는 돌아보지도 않았습니다 |
5:19 | Of course intelligence is so much more than that. | 물론 지능은 그것보다 훨씬 많은 걸 의미해요 |
5:23 | And there are lots of different kinds of intelligence. | 그리고 그 유형도 아주 많습니다 |
5:27 | Our ideas about technology and society that we think are normal | 우리가 기술과 사회에 대해 일반적이라고 보는 개념들은 |
5:32 | are actually ideas that come from | 사실 무척 극소수의 동질적인 사람들의 머리에서 |
5:34 | a very small and homogeneous group of people. | 사실 무척 극소수의 동질적인 사람들의 머리에서 나온 것이에요 |
5:38 | But the problem is that everybody has unconscious biases. | 그런데 문제는 모두에게 무의식적인 편견이 있단 거죠 |
5:44 | And people embed their own biases into technology. | 그리고 사람들은 자신의 편견을 기술에 심었어요 |
5:52 | [Buolamwini] My own lived experiences | 제가 살면서 경험한 바로는 |
5:54 | show me that you can't separate the social from the technical. | 사회적인 것과 기술적인 것은 분리할 수 없습니다 |
5:59 | After I had the experience of putting on a white mask | 하얀 가면을 썼을 때 얼굴이 탐지됐던 경험을 한 후 |
6:02 | to have my face detected, I decided to look at other systems | 하얀 가면을 썼을 때 얼굴이 탐지됐던 경험을 한 후 다른 소프트웨어를 쓸 때는 |
6:06 | to see if it would detect my face if I used a different type of software. | 과연 제 얼굴이 탐지될지 알아보기로 했습니다 |
6:09 | So I looked at IBM, Microsoft, Face++, Google. | 그래서 IBM, 마이크로소프트 페이스++, 구글에 적용해 봤죠 "코드화된 시선 점수: 4/13" |
6:13 | It turned out these algorithms | 그 결과 그 알고리즘들은 |
6:15 | performed better on the male faces in the benchmark than the female faces. | 여성 얼굴의 기준에서보다 남성 얼굴에서 잘 수행됐어요 |
6:20 | They performed significantly better on the lighter faces than the darker faces. | 얼굴색이 짙을 때보다 밝을 때 확연히 잘 수행됐고요 |
6:27 | If you're thinking about data in artificial intelligence, | 인공 지능에 관한 데이터를 보면 |
6:31 | in many ways, data is destiny. | 많은 면에서 데이터는 운명이에요 |
6:33 | Data's what we're using to teach machines how to learn different kinds of patterns. | 우리는 데이터를 활용해서 기계에 다양한 패턴을 가르칩니다 |
6:38 | So if you have largely skewed data sets | 그래서 한쪽으로 크게 쏠린 데이터 세트를 써서 |
6:41 | that are being used to train these systems, | 이런 시스템들을 교육하면 |
6:42 | you can also have skewed results. So this is… | 도출되는 결과 역시 한쪽으로 쏠리게 돼서… |
6:45 | [Buolamwini] When you think of AI, it's forward looking. | AI는 진취적이라고 인식됩니다 |
6:49 | But AI is based on data, and data is a reflection of our history. | 하지만 AI는 데이터에 기반하고 데이터는 우리의 역사를 반영해요 |
6:54 | So the past dwells within our algorithms. | 과거가 우리의 알고리즘 안에서 머무르고 있는 거죠 |
6:59 | This data is showing us the inequalities that have been here. | 이 데이터는 지금까지 존재해 온 불평등을 보여줍니다 |
7:07 | I started to think this kind of technology is highly susceptible to bias. | 전 이런 기술이 편견의 영향을 무척 받기 쉽다고 생각하기 시작했죠 |
7:12 | And so it went beyond "Oh, can I get my Aspire Mirror to work?" | 그래서 '내 어스파이어 미러를 작동시킬 수 있을까?'를 넘어서서 |
7:16 | to "What does it mean to be in a society | '인공 지능이 우리의 자유를' |
7:19 | where artificial intelligence is increasingly governing | '점차 지배하는 사회에서 사는 건' |
7:22 | the liberties we might have?" | '어떤 의미일까?'를 생각했죠 |
7:25 | And "What does that mean if people are discriminated against?" | '사람이 차별을 받는다면 그건 무슨 뜻일까?'도요 |
7:40 | When I saw Cathy O'Neil speak at the Harvard Book Store, | 캐시 오닐이 하버드 서점에서 강연하는 걸 듣고 |
7:44 | that was when I realized it wasn't just me noticing these issues. | "대량살상 수학무기 캐시 오닐" 저만 그 문제를 인식하고 있는 게 아니란 걸 알았어요 |
7:52 | Cathy talked about how AI was impacting people's lives. | 캐시는 AI가 사람들의 삶에 어떤 영향을 미치는지 얘기했어요 |
7:58 | I was excited to know that there was somebody else out there | 사람들에게 그 위험성을 인식시키려는 누군가가 |
8:03 | making sure people were aware about what some of the dangers are. | 저 말고도 있다는 것에 무척 기뻤어요 |
8:08 | These algorithms can be destructive and can be harmful. | 이런 알고리즘은 파괴적일 수 있고 해로울 수 있어요 |
8:17 | [Cathy O'Neil] We have all these algorithms in the world | 세상에는 그 영향력이 점차 증대되고 있는 |
8:20 | that are increasingly influential. | 이런 알고리즘들이 많이 있습니다 |
8:23 | And they're all being touted as objective truth. | 그리고 전부 다 객관적인 진실로 내세워지고 있죠 |
8:28 | I started realizing that mathematics was actually | 저는 수학이 사실상 부패 행위를 보호해 주는 |
8:32 | being used as a shield for corrupt practices. | 방패막이로 쓰이고 있다는 걸 깨닫기 시작했어요 |
8:35 | -What's up? -I'm Cathy. | - 안녕하세요? - 캐시예요 |
8:36 | -Pleasure to meet you Cathy. -Nice to meet you. | - 반갑습니다, 캐시 - 반가워요 |
8:38 | -[photographer speaking indistinctly] -[shutter clicking] | "캐시 오닐 '대량살상 수학무기' 저자" |
8:47 | [O'Neil] The way I describe algorithms is just simply | 제가 생각하는 알고리즘은 |
8:50 | using historical information to make a prediction about the future. | 미래를 예측하기 위해 과거의 정보를 이용하는 거예요 |
9:00 | Machine learning, it's a scoring system that scores the probability | '머신 러닝'이란 점수 시스템으로서 우리가 하려는 것의 가능성의 점수를 매기는 것입니다 |
9:04 | of what you're about to do. | 우리가 하려는 것의 가능성의 점수를 매기는 것입니다 |
9:06 | Are you gonna pay back this loan? | 이 대출금을 갚을 것인가? |
9:07 | Are you going to get fired from this job? | 이 직장에서 해고될 것인가? |
9:10 | What worries me the most about AI, | 제가 AI에 가장 우려하는 것은 |
9:13 | or whatever you wanna call it, algorithms, is power. | 혹은 알고리즘이라고 하든 그건 힘입니다 |
9:16 | Because it's really all about who owns the fucking code. | 결국 그 빌어먹을 코드를 누가 소유하고 있느냐거든요 |
9:20 | The people who own the code then deploy it on other people. | 그걸 소유한 사람들이 그걸 다른 사람들에게 사용해요 |
9:24 | And there is no symmetry there. | 균형이라곤 없죠 |
9:25 | There's no way for people who didn't get credit card offers to say, | 신용 카드 제의를 못 받은 사람은 이렇게 말할 방법이 없죠 |
9:29 | "Ooh, I'm gonna use my AI against the credit card company." | '난 신용 카드 회사를 상대로 내 AI를 쓰겠습니다' |
9:32 | That's like a total asymmetrical power situation. | 완전히 힘의 비대칭적 상황이죠 |
9:35 | People are suffering algorithmic harm, | 사람들은 알고리즘으로 인한 피해로 고통받고 있어요 |
9:38 | they're not being told what's happening to them, | 무슨 일이 일어나고 있는지 아무도 말해주지 않고요 |
9:41 | and there is no appeal system, there's no accountability. | 호소할 시스템도 없어요 상대는 설명의 책임도 없고요 |
9:44 | Why do we fall for this? | 우린 왜 이것에 속아 넘어갈까요? |
9:50 | [O'Neil] The underlying mathematical structure of the algorithm | 알고리즘에 깔려 있는 수학적 구조는 |
9:53 | isn't racist or sexist, but the data embeds the past. | 인종 차별, 성차별은 아니에요 하지만 데이터엔 과거가 내재하죠 |
9:57 | And not just the recent past, but the dark past. | 최근의 것뿐 아니라 어두운 과거까지도요 |
10:04 | Before we had the algorithm, we had humans, | 알고리즘이 있기 전에 인간이 있었습니다 |
10:06 | and we all know that humans could be unfair. | 그리고 우린 알죠 인간은 불공평할 수 있단 걸요 |
10:09 | We all know that humans can exhibit racist or sexist | 인간은 차별 성향을 드러낼 수 있어요 인종, 성별, 장애 여부든 뭐든에 따라서요 |
10:12 | or whatever, ablest discriminations. | 인종, 성별, 장애 여부든 뭐든에 따라서요 |
10:16 | But now we have this beautiful silver bullet algorithm, | 근데 이젠 이 아름다운 묘책인 알고리즘이 있어서 |
10:19 | and so, we can all stop thinking about that. | 그것에 대한 고민을 안 해도 되겠죠 |
10:22 | And that's a problem. | 그게 문제예요 |
10:26 | I'm very worried about this blind faith we have in big data. | 저는 이 빅 데이터에 대한 맹목적인 믿음이 무척 걱정됩니다 |
10:30 | We need to constantly monitor every process for bias. | 우리는 모든 과정에서 끊임없이 편향성이 있는지 감시해야 해요 |
10:43 | Police are using facial-recognition surveillance in this area. | 경찰이 이 지역에서 안면 인식으로 감시하고 있어요 "실키 카를로 빅 브라더 워치 영국, 소장" |
10:47 | Police are using facial-recognition surveillance in the area today. | 경찰이 오늘 이 지역에서 안면 인식으로 감시하고 있어요 |
10:51 | This green van over here | 저기 있는 초록색 차량 지붕에 |
10:54 | is fitted with facial-recognition cameras on top. | 안면 인식 카메라가 설치돼 있어요 |
10:56 | If you walk down that there, your face will be scanned | 그쪽으로 가시면 얼굴이 스캔 돼 비밀 감시 대상자들과 대조돼요 |
10:59 | against secret watch lists, we don't know who's on them. | 그쪽으로 가시면 얼굴이 스캔 돼 비밀 감시 대상자들과 대조돼요 누가 감시 대상인지는 몰라요 |
11:02 | -[man] Hopefully not me -No, exactly. | - 난 아니면 좋겠네요 - 아니죠, 그럼요 |
11:13 | [Silkie Carlo] When people walk past the cameras, | 사람들이 카메라를 지나가면 |
11:15 | the system will alert police to people it thinks is a match. | 시스템은 일치한다고 판단되는 이들을 경찰에 알립니다 |
11:20 | At Big Brother Watch, we conducted a Freedom of Information Campaign | 빅 브라더 워치에서는 '정보의 자유 캠페인'을 벌였고 |
11:24 | and what we found is that 98% of those matches are in fact | 그 결과, 일치로 판별된 사람 중 98%가 사실은 |
11:30 | incorrectly matching an innocent person as a wanted person. | 수배자와 무관한 무고한 사람인 걸로 드러났어요 |
11:47 | The police said to the Biometrics Forensics Ethics Committee | '경찰은 생체 인식 포렌식 윤리 위원회에' |
11:52 | that facial-recognition algorithms have been reported to have bias. | '안면 인식 알고리즘에 편향성이 있다고 보고돼 왔다고 말했다' |
11:56 | Even if this was 100% accurate, | 100% 정확하다고 해도 |
11:58 | it's still not something that we want on the streets. | 실제로 거리에서 이런 일이 있으면 안 되죠 |
12:01 | No, I mean, the systemic biases and the systemic issues | 그렇죠, 근데 경찰과 관련한 시스템적인 편향과 문제들은 |
12:03 | that we have with police are only going to be hardwired | 그렇죠, 근데 경찰과 관련한 시스템적인 편향과 문제들은 신기술들에 굳건히 연결되기만 할 거예요 |
12:07 | into new technologies. | 신기술들에 굳건히 연결되기만 할 거예요 |
12:11 | I think we do have to be very, very sensitive | 저는 우리가 권위주의로 이동해 가는 것에 |
12:14 | to shifts towards authoritarianism. | 무척 신경을 곤두세워야 한다고 생각해요 |
12:17 | We can't just say, "But we trust this government. | 이럴 수만은 없어요 '근데 우린 이 정부를 믿어' |
12:20 | Yeah, they could do this, but they won't." | '그들이 그럴 수 있다 해도 안 그럴 거야' |
12:22 | You know, you really have to have robust structures in place | 우리는 우리가 사는 세계가 모두에게 안전하고 공정하도록 |
12:25 | to make sure that the world that you live in | 우리는 우리가 사는 세계가 모두에게 안전하고 공정하도록 그 구조를 탄탄히 해야 합니다 |
12:27 | is safe and fair for everyone. | 그 구조를 탄탄히 해야 합니다 |
12:29 | -[man] That's all? -Yeah. | - 다 됐어요? - 네 |
12:38 | [Carlo] To have your biometric photo on a police database | 우리의 생체 인증 사진이 경찰 데이터베이스에 있다는 건 |
12:42 | is like having your fingerprint or your DNA on a police database. | 지문이나 DNA가 올라가 있는 것과 마찬가지예요 |
12:47 | And we have specific laws around that. | 근데 그것과 관련한 구체적인 법이 있어요 |
12:49 | Police can't just take anyone's fingerprint, anyone's DNA. | 경찰은 그 누구의 지문, DNA도 이유 없이 확보할 수 없다고요 |
12:52 | But in this weird system that we currently have, | 하지만 현재의 이 이상한 시스템 하에선 |
12:56 | they effectively can take anyone's biometric photo | 사실상 어느 누구의 생체 인증 사진도 |
12:59 | and keep that on a database. | 자신들의 데이터베이스에 보관할 수 있죠 |
13:02 | It's a stain on our democracy, I think, | 이건 우리 민주주의의 오점이라고 생각해요 |
13:05 | that this is something that is just being rolled out so lawlessly. | 정말 비합법적으로 자행되고 있는 거죠 |
13:11 | The police have started using facial-recognition surveillance in the UK | 경찰이 영국에서 안면 인식 감시를 시작한 바탕엔 |
13:15 | in complete absence of a legal basis, a legal framework, any oversight. | 어떤 법적 기준도, 근거도 감독도 없었어요 |
13:22 | Essentially the police force picking up a new tool | 기본적으로 경찰은 새 도구를 갖추고는 |
13:25 | and saying, "Let's see what happens." | 이러는 거죠 '어떻게 되는지 보자' |
13:27 | But you can't experiment with people's rights. | 하지만 사람들의 권리를 실험할 순 없어요 |
13:33 | If I want to cover my face, I'll cover my face. | 내가 얼굴을 가리고 싶으면 가리는 겁니다 |
13:34 | Don't push me when I'm walking down the street. | 길을 가고 있는 사람을 밀면 안 되죠 |
13:37 | How would you like it if you walk down the street and someone grabbed you? | 당신 같으면 길 가다가 붙들릴 때 기분이 어떻겠어요? |
13:40 | [man] Thank you. | 감사합니다 |
13:42 | You wouldn't like it, would ya? You'd wind your leg in. | 기분 안 좋겠죠? 입 다물고 있겠어요? |
13:44 | [Carlo] What's your suspicion? | 뭘 의심하세요? |
13:46 | The fact that he walked past a clearly marked | 오다가 안면 인식 장치를 보고 |
13:49 | facial-recognition thing and covered his face. | 얼굴을 가리고 지나가서요 |
13:50 | -I would do the same -It gives us grounds. | - 저라도 그러겠어요 - 그게 근거죠 |
13:53 | No, it doesn't. | 근거 아니에요 |
13:55 | The guys up there informed me that they got facial recognition. | 저기 사람들이 안면 인식 검사 당했다고 알려줬어요 |
13:58 | I don't want my face recognized. | 난 얼굴 식별되는 거 싫어요 |
13:59 | Yeah, I was walking past and covered my face. | 그래서 지나오면서 이렇게 가렸어요 |
14:02 | As soon as I covered my face like this… | 이렇게 얼굴을 가리는 순간… |
14:04 | -You're allowed to do that -They said "No, I can't." | - 그래도 돼요 - 안 된다고 하더라고요 |
14:06 | [Carlo] Yeah, and then he's just got a fine for it. This is crazy. | 그리고선 벌금을 내라고 했네요 말도 안 돼요 |
14:11 | The guy came out of the station, saw the placards, was like, | 저분이 역에서 나와 현수막을 봤어요 |
14:14 | "Yeah, I agree with you," and walked past here with his jacket up. | '네, 동의합니다' 그래서 재킷으로 얼굴을 가리고 지나갔어요 |
14:17 | The police then followed him, said, "Give us your ID, | 근데 경찰이 따라와서 신분증을 보여달랬어요 신원을 확인한다고요 |
14:20 | we're doing an identity check." | 신분증을 보여달랬어요 신원을 확인한다고요 |
14:21 | It's like, "This is England. This isn't a communist state. | '여긴 영국이야 공산 국가가 아니라고' |
14:24 | I don't have to show my face." | '내 얼굴 보여줄 필요 없어' 이거잖아요 |
14:25 | I'm gonna go and talk to these officers, all right? | 경찰과 얘기해 볼게요 |
14:27 | -Do you want to come with me or not? -Yes. | - 나랑 같이 갈래요? - 네, 좋아요 |
14:31 | [female officer] You're not a police officer. | 당신은 경찰이 아니잖아요 |
14:32 | You didn't feel any threat. | 어떤 위협도 안 느꼈고요 |
14:35 | We're here to protect the public and that's what we're here to do, okay? | 우린 일반 시민을 보호하러 이곳에 나온 거예요 |
14:39 | There was an incident | 사건이 하나 있었어요 |
14:41 | where an officer got punched in the face. | 경찰관이 얼굴을 가격당했죠 |
14:43 | That's terrible. I'm not justifying that. | 끔찍하네요 난 그걸 정당화하는 게 아니에요 |
14:46 | Yeah, but you are by going against what we say. | 하지만 저희의 말에 이의를 제기하시잖아요 |
14:48 | No, we are not. And please don't say… No, don't even start to say that. | 아뇨, 그게 아니죠 그런 말은 하지도 말아요 |
14:53 | [Jenny Jones] I'm completely understanding of the problems that you face. | 여러분이 직면한 문제는 완전히 이해하고 있어요 |
14:56 | [Carlo] Absolutely. | 맞아요 |
14:57 | [Jones] But I'm equally concerned about the public | 하지만 대중이 표현의 자유를 가지는 것도 |
14:59 | having freedom of expression and freedom of speech. | 하지만 대중이 표현의 자유를 가지는 것도 똑같이 중요하다는 거예요 |
15:01 | The man was exercising his right | 그 사람은 생체 인식 검사를 받을 필요가 없다는 |
15:03 | not to be subject to a biometric identity check, | 그 사람은 생체 인식 검사를 받을 필요가 없다는 권리를 행사한 거예요 |
15:05 | which is what this van does. | 이 차가 하는 검사요 |
15:07 | [male officer] Regardless of the facial-recognition cameras | 안면 인식 카메라와 상관없이 |
15:09 | and regardless of the van, | 그리고 차량과 상관없이 |
15:11 | if I'm walking down the street and someone quite overtly | 길을 가는데 누군가가 아주 명백하게 신분을 숨기면 |
15:14 | hides their identity from me, | 아주 명백하게 신분을 숨기면 |
15:15 | I'm gonna stop that person and find out who they are just to see whether they… | 전 멈춰 세워서 신분을 확인합니다, 혹시 어떤… |
15:18 | -[Carlo] But it's not illegal. -You see, one of my concerns | 불법은 아니잖아요 제가 우려하는 거는 |
15:21 | is that the software is very, very inaccurate. | 그 소프트웨어가 몹시 부정확하다는 거예요 |
15:24 | I would agree with you there. | 그 부분은 동의합니다 |
15:32 | [Carlo] My ultimate fear is that | 제가 가장 두려운 건 |
15:34 | we would have live facial-recognition capabilities | 이 나라의 엄청난 CCTV 네트워크에 |
15:38 | on our gargantuan CCTV network, | 실시간 안면 인식 기능이 생길지도 모른다는 거예요 |
15:40 | which is about six million cameras in the UK. | 영국의 보안 카메라는 6백만 대에 육박하거든요 |
15:43 | If that happens, the nature of life in this country would change. | 그런 일이 생기면 이 나라에서의 삶의 본질은 바뀔 거예요 |
15:54 | It's supposed to be a free and democratic country, | 자유롭고 민주적인 국가여야 하는데 |
15:56 | and this is China-style surveillance for the first time in London. | 런던에 최초로 중국식 감시 체제가 생기는 거죠 |
16:04 | [male newscaster] Our control over a bewildering environment | 당혹스러울 정도로 급변하는 환경에 대한 통제는 |
16:07 | has been facilitated by new techniques of handling vast amounts of data | 막대한 양의 데이터를 놀라운 속도로 처리하는 |
16:11 | at incredible speeds. | 신기술 덕분에 수월해졌습니다 |
16:13 | The tool which has made this possible is the high-speed digital computer, | 이를 가능하게 한 도구는 고속 디지털 컴퓨터로서 |
16:17 | operating with electronic precision on great quantities of information. | 어마어마한 양의 정보를 전자적으로 정확히 처리합니다 |
16:21 | [Zeynep Tufekci] There are two ways in which you can program computers. | 컴퓨터를 프로그래밍하는 방법은 두 가지예요 |
16:24 | One of them is more like a recipe. | 하나는 레시피와 비슷하죠 |
16:26 | You tell the computer, "Do this, do this, do this." | 컴퓨터에 이렇게 말해요 '이거 하고, 이거 하고, 이걸 해' |
16:30 | And that's been the way we've programmed computers almost from the beginning. | 거의 초기 프로그래밍부터 그 방식이 이용됐죠 |
16:34 | Now, there is another way. | 현재는 다른 방법도 있어요 |
16:36 | That way is feeding the computer lots of data, | 컴퓨터에 많은 데이터를 공급하면 |
16:39 | and then the computer learns to classify by digesting this data. | "제이넵 투펙치 박사 '트위터와 최루가스' 저자" 컴퓨터가 그걸 소화함으로써 분류하는 법을 배우는 거죠 |
16:45 | Now, this method didn't really catch on till recently | 후자의 방법은 근래까지 큰 호응을 얻지 못했어요 |
16:49 | because there wasn't enough data. | 데이터양이 많지 않았으니까요 |
16:52 | Until we all got the smart phones that's collecting all the data on us, | 그러다 사람들은 자신의 온갖 데이터를 수집하는 스마트폰을 소지하게 됐고 |
16:56 | when billions of people went online | 수십억의 사람들이 온라인에 접속하니 |
16:57 | and you had the Googles and the Facebooks sitting on giant amounts of data, | 구글이니 페이스북 같은 기업들은 앉아서 엄청난 데이터를 모아요 |
17:01 | all of a sudden, it turns out that you can feed a lot of data | 어느 날 갑자기 우리는 많은 데이터를 이런 기계 학습 알고리즘에 주입할 수 있게 됐고 |
17:06 | to these machine-learning algorithms and you can say, "Here, classify this," | 이런 기계 학습 알고리즘에 주입할 수 있게 됐고 이렇게 말해요, '자, 이걸 분류해' |
17:10 | and it works really well. | 그러면 아주 잘 작동하죠 |
17:15 | But we don't really understand why it works. | 하지만 우린 그게 왜 작동하는지 잘 모르고 있어요 |
17:18 | It has errors that we don't really understand. | 거기엔 우리가 잘 모르는 에러들이 있는데도요 |
17:25 | And the scary part is that, because it's machine learning, | 그리고 무서운 건 그게 머신 러닝이기 때문에 |
17:29 | it's a black box to even the programmers. | 프로그래머들에게조차 블랙박스란 거예요 |
17:39 | [Buolamwini] So I've been following what's going on in Hong Kong, | 전 홍콩의 상황을 계속 주시해 왔어요 |
17:42 | and how police are using facial recognition to track protesters. | 경찰이 어떻게 안면 인식을 이용해 시위대를 추적하는지를요 |
17:47 | But also how creatively people are pushing back. | 그와 동시에 사람들이 어떻게 기발하게 대항하는지도요 |
17:56 | [female newscaster] It might look like something out of a sci-fi movie. | 공상 과학 영화 속의 한 장면 같겠지만 |
17:58 | Laser pointers confuse and disable the facial-recognition technology | 경찰이 반체제 인사 추적에 사용하는 안면 인식 기술을 |
18:03 | being used by police to track down dissidents. | 레이저 포인터들이 교란하고 무력화하는 모습입니다 |
18:16 | SCANNING | "스캐닝 중" |
18:17 | LOOKING FOR THE PERSON LOAD DATABASE - CROSS-CHECK | "교차 확인" |
18:40 | [man] Here on the streets of Hong Kong, | 이곳 홍콩의 거리에서는 |
18:41 | there's this awareness that your face itself, | 숨길 수 없는 것인 얼굴 그 자체로 |
18:44 | something you can't hide, could give your identity away. | 신원을 드러낼 수 있다는 인식이 있습니다 |
18:48 | There was just this stark symbol where, in front of a Chinese government office, | 그에 반대하는 극명한 행동이 있었는데 한 관청 건물 앞에 설치된 CCTV 카메라에 |
18:52 | pro-democracy protesters spray-painted the lens of the CCTV cameras black. | 친민주주의 시위자들이 검은색 페인트칠을 한 것이죠 |
18:57 | This act showed the people of Hong Kong are rejecting this vision | 홍콩 시민들은 기술이 미래에 그렇게 사용되는 모습을 |
19:01 | of how technology should be used in the future. | 거부한다는 걸 보여주는 행동이죠 |
19:27 | [Buolamwini] When you see how facial recognition is being deployed | 안면 인식 기술이 전 세계의 다양한 곳에서 어떻게 사용되고 있는지를 보면 |
19:31 | in different parts of the world, it shows you potential futures. | 전 세계의 다양한 곳에서 어떻게 사용되고 있는지를 보면 미래에 일어날 수 있는 일을 알 수 있어요 |
19:41 | Over 117 million people in the US | 1억 1천 7백만이 넘는 미국인들의 얼굴이 |
19:45 | has their face in a facial-recognition network that can be searched by police. | 경찰이 검색할 수 있는 안면 인식 네트워크에 담겨 있어요 |
19:50 | Unwarranted using algorithms that haven't been audited for accuracy. | 정확성이 미검사된 알고리즘을 사용하는 부당한 것이죠 |
19:54 | And without safeguards, without any kind of regulation, | 안전장치도 없고 규제도 없으니 |
19:59 | you can create a mass surveillance state | 이미 존재하는 도구를 이용해 아주 손쉽게 |
20:02 | very easily with the tools that already exist. | 대중 감시 국가를 만들 수 있죠 |
20:09 | People look at what's going on in China | 사람들은 중국의 상황을 보고 |
20:12 | and how we need to be worried about state surveillance, | 국가 감시에 대해 걱정스러워 합니다 |
20:15 | and of course we should be. | 당연히 걱정해야 하죠 |
20:17 | But we can't also forget corporate surveillance | 하지만 기업의 감시도 빼먹어선 안 됩니다 |
20:20 | that's happening by so many large tech companies | 우리들의 삶을 속속들이 들여다보는 |
20:23 | that really have an intimate view of our lives. | 많은 기술 회사들이 자행하고 있는 일이죠 |
20:35 | So there are currently nine companies | 현재 9개의 회사가 |
20:39 | that are building the future of artificial intelligence. | 인공 지능의 미래를 만들어 가고 있습니다 |
20:42 | Six are in the United States, three are in China. | 6개는 미국 회사이고 3개는 중국 회사죠 |
20:45 | AI is being developed along two very, very different tracks. | "에이미 웹, 미래학자 '빅나인' 저자" AI는 매우 다른 2개의 트랙을 따라 개발되고 있어요 |
20:51 | China has unfettered access to everybody's data. | 중국은 사람들의 데이터에 자유롭게 접근할 수 있습니다 |
20:54 | If a Chinese citizen wants to get Internet service, | 중국인들은 인터넷 서비스를 이용하고자 할 때 |
20:58 | they have to submit to facial recognition. | 안면 인식 절차를 거쳐야 하죠 |
21:02 | All of this data is being used to give them permissions to do things | 그 모든 데이터는 그들이 뭔가를 하는 것을 허가하거나 거부하는 데에 사용되고 있어요 |
21:06 | or to deny them permissions to do other things. | 허가하거나 거부하는 데에 사용되고 있어요 |
21:11 | Building systems that automatically tag and categorize | 중국 내의 모든 국민을 분류하고 |
21:14 | all of the people within China, | 꼬리표를 붙이는 시스템을 구축하는 건 |
21:16 | is a good way of maintaining social order. | 사회 질서를 유지하는 좋은 방법이죠 |
21:22 | Conversely, in the United States, we have not seen | 반대로 미국에서는 인공 지능에 관한 구체적인 관점이 없었어요 |
21:25 | a detailed point of view on artificial intelligence. | 인공 지능에 관한 구체적인 관점이 없었어요 |
21:29 | So, what we see is that AI | 그래서 우리는 AI를 |
21:32 | is not being developed for what's best in our public interest, | 대중의 이익에 최선인 방식으로 개발하는 대신 |
21:35 | but rather, it's being developed | 수익을 창출하기 위한 |
21:38 | for commercial applications, to earn revenue. | 상업적인 용도로 개발합니다 |
21:44 | I would prefer to see our Western democratic ideals | 저는 우리 서구가 가진 민주주의 이상들이 |
21:47 | baked into our AI systems of the future. | 미래의 AI 시스템에 반영되면 좋겠지만 |
21:51 | But it doesn't seem like that's what's probably going to be happening. | 그런 일은 아마 일어나지 않을 것 같습니다 |
22:16 | Here at Atlantic Towers, if you do something that is deemed wrong | 이곳 애틀랜틱 타워에선 관리자 측이 옳지 않다고 판단하는 뭔가를 우리가 하면 |
22:20 | by management, you will get a photo like this with little notes on it. | 관리자 측이 옳지 않다고 판단하는 뭔가를 우리가 하면 이런 사진을 받아요 거기엔 메모도 적혀 있고 |
22:25 | They'll circle you and put your apartment number or whatever on there. | 당사자에겐 원이 그려져 있고 아파트 호수 같은 것도 적혀 있죠 |
22:31 | Something about it just doesn't seem right. | 뭔가 옳지 않아 보여요 |
22:35 | It's actually the way they go about using it. | 그들은 그걸 이렇게 이용해요 |
22:37 | [woman] How are they using it? To harass people. | - 어떻게 이용하는 거죠? - 사람들을 괴롭히는 데에요 |
22:41 | [female newscaster] Atlantic Plaza Towers in Brownsville | 브라운스빌의 애틀랜틱 플라자 타워스는 |
22:44 | is at the center of a security struggle. | 보안 싸움의 중심지입니다 |
22:46 | The landlord filed an application last year | 건물주는 지난해에 한 신청서를 제출했는데 |
22:48 | to replace the key fob entry with a biometrics security system, | 전자 열쇠 출입 시스템을 생체 보안 시스템으로 교체하는 것으로서 |
22:53 | commonly known as facial recognition. | 흔히 안면 인식으로 알려져 있죠 |
22:56 | We thought that they wanted to take the key fobs out | 전자 열쇠 시스템을 철회하고 |
22:58 | and install the facial-recognition software. | 안면 인식 소프트웨어를 설치하려나 보다 했어요 "트라니 모란 브루클린 세입자" |
23:01 | I didn't find out until way later on literally that they wanted to keep it all. | 그런데 한참 후에야 알았어요 그들은 그걸 전부 다 도입하려 한 거예요 |
23:06 | Pretty much turn this place into Fort Knox, a jail, Rikers Island. | 이곳을 포트 녹스나 라이커스섬 같은 교도소로 만들려는 거였죠 |
23:12 | [Virginia Eubanks] There's this old saw in science fiction | 예전 공상 과학 소설에 이런 유명한 말이 있어요 |
23:14 | which is the future is already here, It's just not evenly distributed. | '미래는 이미 와 있다' '균등히 퍼지지 않았을 뿐이다' |
23:18 | And what they tend to mean when they say that | '균등히 퍼지지 않았을 뿐이다' "버지니아 유뱅크스 박사 '자동화된 불평등' 저자" |
23:21 | is that rich people get the fancy tools first, | 부자들이 고급 도구를 먼저 취하고 |
23:23 | and then it goes last to the poor. | 가난한 이들은 맨 마지막에 갖는단 거죠 |
23:26 | But in fact, what I've found is the absolute reverse, | 하지만 제가 알아낸 바로는 완전히 그 반대예요 |
23:28 | which is the most punitive, | 가장 징벌적이고 |
23:30 | most invasive, most surveillance-focused tools that we have, | 가장 침략적이고 가장 감시 중심적인 도구는 |
23:34 | they go into poor and working communities first. | 가난한 사람들, 노동자층에 먼저 간다는 거죠 |
23:36 | And then, if they work, after being tested in this environment | 사람들의 권리가 존중될 거란 기대치가 낮은 |
23:40 | where there's low expectation that people's rights will be respected, | 그런 환경에서 테스트 된 후 |
23:44 | then they get ported out to other communities. | 다른 공동체로 옮겨지는 거예요 "입주민 월세 납입 완료, 재활용 위반" |
23:49 | Why did Mr. Nelson pick on this building in Brownsville | 왜 넬슨 씨는 흑인과 갈색 피부 인종이 대다수인 |
23:53 | that is predominantly in a Black and brown area? | 브라운스빌의 이 건물을 택했을까요? |
23:56 | Why didn't you go to your building in Lower Manhattan | 왜 로어맨해튼에 있는 월세 5천 달러짜리 아파트에는 |
23:59 | where they pay, like, $5,000 a month rent? | 왜 로어맨해튼에 있는 월세 5천 달러짜리 아파트에는 시행하지 않고요? |
24:02 | What did the Nazis do? | 나치가 무슨 짓을 했죠? |
24:04 | They wrote on people's arms so that they could track them. | 사람들의 팔에 글자를 새겼어요 "아이스미 다운스 브루클린 세입자" 추적하려고요 |
24:07 | What do we do to our animals? | 우린 동물한테 어떻게 하죠? |
24:09 | We put chips home so you can track them. | 칩을 이식하죠, 추적하려고요 |
24:11 | I feel that I, as a human being, should not be tracked, okay? | 저는 사람은 추적당하지 않아야 한다고 생각해요 |
24:16 | I'm not a robot, okay? | 로봇이 아니잖아요 |
24:18 | I am not an animal, so why treat me like an animal? | 동물도 아니에요 근데 왜 그 취급을 당해요? |
24:20 | And I have rights. | 제겐 권리가 있어요 |
24:24 | The security that we have now, it's borderline intrusive. | 지금 우리의 보안 시스템은 선을 넘는 거예요 |
24:27 | Someone is in there watching the cameras all day long. | 누군가가 온종일 카메라를 들여다보고 있다니까요 |
24:31 | So I don't think we need it. It's not necessary at all. | 우린 그거 필요 없어요, 전혀요 |
24:34 | My real question is how can I be of support? | 제가 어떻게 도움을 드릴 수 있을까요? |
24:37 | [woman] What I've been hearing from all of the tenants is | 세입자들이 한결같이 말하는 건 |
24:39 | they don't want this system. | 이런 시스템을 원치 않는단 거예요 |
24:41 | So, I think the goal here is how do we stop face recognition, period? | 그러니까 목표는 안면 인식 시스템을 어떻게 철회시키느냐겠죠? |
24:49 | [Buolamwini] We're at a moment where the technology is being rapidly adopted, | 지금 우리는 기술은 급속도로 적용되고 있는데 |
24:52 | and there are no safeguards. | 안전장치가 없는 시대에서 살고 있어요 |
24:55 | It is, in essence, a Wild Wild West. | 본질적으로 개척 시대의 서부와 같죠 |
25:10 | It's not just computer vision. | 그건 컴퓨터 비전에만 해당되는 게 아니에요 |
25:12 | We have AI influencing all kinds of automated decision-making. | 모든 자동화된 의사 결정에 AI가 영향을 미쳐요 |
25:19 | So, what you are seeing in your feeds, what is highlighted, | 따라서 피드에서 보이는 것들 강조되는 것들 |
25:22 | the ads that are displayed to you, | 광고 같은 것들은 흔히 |
25:25 | those are often powered by AI-enabled algorithms. | AI를 활용한 알고리즘을 기반으로 움직이죠 |
25:31 | And so, your view of the world is being governed by artificial intelligence. | 그래서 우리의 세계관은 인공 지능의 지배를 받고 있죠 |
25:40 | You now have things like voice assistance that can understand language. | 현재는 언어를 알아들을 수 있는 음성 지원 같은 것도 있어요 |
25:45 | [AI] Would you like to play a game? | 게임하고 싶어요? |
25:47 | [Buolamwini] You might use something like Snapchat filters | 스냅챗 필터 같은 걸로는 |
25:50 | that are detecting your face and then putting something onto your face. | 얼굴도 감지하고 그 위에 뭔가를 덮을 수도 있고요 |
25:53 | And then you also have algorithms that you're not seeing | 그리고 의사 결정의 일부로 보이지 않는 |
25:56 | that are part of decision-making. | 알고리즘들도 있어요 |
25:58 | Algorithms that might be determining | 대학 합격 여부를 |
26:00 | if you get into college or not. | 판단할 수 있을지 모르는 알고리즘들요 |
26:02 | You can have algorithms that are trying to determine | 믿을 만한 사람인지 아닌지 판단하고자 하는 알고리즘도 |
26:05 | if you're credit worthy or not. | 믿을 만한 사람인지 아닌지 판단하고자 하는 알고리즘도 있을 수 있어요 |
26:09 | One of Apple's co-founders is accusing the company's new digital credit card | 애플의 공동 창립자 한 명이 자사의 새 디지털 신용 카드가 |
26:14 | of gender discrimination. | 성 차별적이라고 비난합니다 |
26:15 | One tech entrepreneur said the algorithms being used are sexist. | 한 기술 기업가가 지적하는 건 이용되는 알고리즘들입니다 |
26:20 | Apple co-founder Steve Wozniak tweeted | 애플 공동 창업자 스티브 워즈니악은 |
26:22 | that he got ten times the credit limit his wife received | 자신과 아내가 계좌나 재산을 따로 관리하지 않음에도 |
26:25 | even though they have no separate accounts or separate assets. | 자신의 신용 한도가 아내의 것보다 10배 높다고 합니다 |
26:29 | You're saying some of these companies | 이런 회사들 중 일부는 |
26:30 | don't even know how their own algorithms work. | 알고리즘이 어떻게 작동하는지도 모른다죠 |
26:32 | They know what the algorithms are trying to do. | 알고리즘이 뭘 하려 하는지는 알지만 |
26:34 | They don't know exactly how the algorithm is getting there. | 그걸 어떻게 해내는지는 정확히 모릅니다 |
26:37 | It is one of the most interesting questions of our time. | 우리 시대에 가장 흥미로운 질문 중 하나죠 |
26:39 | How do we get justice | 정의를 어떻게 실현할까요? |
26:40 | in a system where we don't know how the algorithms are working? | 알고리즘이 어떻게 작용하는지 모르는 시스템에서요? |
26:44 | Some Amazon engineers decided that they were going to use AI | 아마존의 일부 엔지니어들은 AI를 이용해서 |
26:48 | to sort through resumes for hiring. | 취업 희망자들의 이력서를 살펴보기로 했어요 |
26:54 | [female newscaster] Amazon is learning a tough lesson about artificial intelligence. | 아마존은 인공 지능에 대해 혹독한 교훈을 얻고 있습니다 |
26:58 | The company has now abandoned an AI recruiting tool | 이 회사는 AI 채용 도구를 폐지하기로 했는데 |
27:01 | after discovering that the program was biased against women. | 그 프로그램에서 여성에 대한 편견이 발견됐기 때문이죠 |
27:07 | This model rejected all résumés from women. | 그 모델은 여성의 이력서를 전부 거부했어요 |
27:12 | Anybody who had a women's college on their résumé, | 이력서에 여자 대학 출신이라고 기재했거나 |
27:16 | anybody who had a sport like women's water polo | 여자 수구 같은 스포츠를 했다고 한 사람은 |
27:19 | was rejected by the model. | 그 모델이 거부했어요 |
27:23 | There are very, very few women working in powerful tech jobs at Amazon. | 아마존의 막강한 기술직에서 일하는 여성은 무척 극소수입니다 |
27:29 | The same way that there are very few women working in powerful tech jobs anywhere. | 여성이 막강한 기술직에 극소수만 있다는 건 어디나 마찬가지고요 |
27:34 | The machine was simply replicating the world as it exists, | 그 기계는 세상을 있는 그대로 똑같이 모사했을 뿐 |
27:40 | and they're not making decisions that are ethical. | 윤리적인 결정을 내리지는 않았어요 |
27:43 | They're only making decisions that are mathematical. | 단지 수학적인 결정만 내릴 뿐이었죠 |
27:47 | If we use machine learning models to replicate the world as it is today, | 우리가 현 세계를 모사하려고 기계 학습 모델들을 이용한다면 |
27:53 | we're not actually going to make social progress. | 사회 발전은 이뤄지지 않을 겁니다 |
27:58 | New York's insurance regulator is launching an investigation | 뉴욕의 보험 감독 기관이 유나이티드 헬스 그룹에 대한 조사에 착수했습니다 |
28:01 | into UnitedHealth Group after a study showed | 유나이티드 헬스 그룹에 대한 조사에 착수했습니다 그 회사의 알고리즘 때문에 |
28:04 | a UnitedHealth algorithm prioritized medical care | 병세가 더 심한 흑인 환자들보다 상대적으로 건강한 백인 환자들이 |
28:08 | for healthier white patients over sicker Black patients. | 진료를 우선적으로 받았다는 한 연구 결과에 따른 것입니다 |
28:11 | It's one of the latest examples of racial discrimination | 알고리즘, 혹은 인공 지능 기술에 |
28:14 | in algorithms or artificial intelligence technology. | 인종 차별이 존재한다는 걸 보여주는 최근의 한 사례입니다 |
28:21 | [Buolamwini] I started to see the wide-scale social implications of AI. | 전 AI가 사회에 미치는 광범위한 영향을 보기 시작했죠 |
28:35 | The progress that was made in the civil rights era | 시민권 시대에 이뤄졌던 진보가 |
28:38 | could be rolled back under the guise of machine neutrality. | 기계 중립이라는 구실 하에 퇴보할 수 있어요 |
28:47 | Now, we have an algorithm that's determining who gets housing. | 현재 우리가 가진 알고리즘은 누가 주택을 살 기회를 얻을지 판단하기도 하고 |
28:51 | Right now, we have an algorithm that's determining who gets hired. | 누가 고용될지를 판단하기도 해요 |
28:57 | If we're not checking, that algorithm could actually propagate | 우리가 확인하지 않으면 그 알고리즘은 수많은 사람이 자신의 목숨을 걸고 투쟁하게 한 그 편견을 |
29:01 | the very bias so many people put their lives on the line to fight. | 수많은 사람이 자신의 목숨을 걸고 투쟁하게 한 그 편견을 전파할 수 있어요 |
29:09 | Because of the power of these tools, left unregulated, | 이 도구들은 너무나 강력해서 통제하지 않으면 |
29:15 | there's really no kind of recourse if they're abused. | 남용될 경우 우리가 의지할 수 있는 수단이 전혀 없어요 |
29:19 | We need laws. | 법이 필요해요 |
29:33 | Yeah, I've got a terrible old copy. | 책이 너무 낡았네요 |
29:35 | So that the name of our organization is Big Brother Watch. | 우리 단체의 이름은 '빅 브라더 워치'예요 |
29:41 | The idea being that we watch the watchers. | "조지 오웰 1984" 감시자들을 감시한다는 개념이죠 |
29:48 | "You had to live, did live, from habit that became instinct, | '사람들은 자신이 내는 모든 소리는 엿듣기고' |
29:53 | in the assumption that every sound you made was overheard, | '깜깜할 때 외엔 모든 동작이 철저히 감시된다고 추측하며' |
29:57 | and except in darkness, every movement scrutinized. | '그 습관이 본능이 된 삶을 살아가야 했다' |
30:02 | The poster with the enormous face gazed from the wall. | '거대한 얼굴이 그려진 포스터가 벽에서 응시했다' |
30:05 | It was one of those pictures which is so contrived | '너무나 부자연스러워서 사람들이 움직일 때마다' |
30:08 | that the eyes follow you about when you move. | '그 눈이 뒤쫓아가는 그림 중 하나였다' |
30:11 | 'Big Brother is watching you,' | '"빅 브라더가 당신을 보고 있다"' |
30:13 | the caption beneath it ran." | '그렇게 얼굴 아래에 써 있었다' |
30:15 | When we were younger, that was still a complete fiction. | 우리가 더 어렸을 때만 해도 그건 완벽한 허구였어요 |
30:19 | It could never have been true. | 현실이 될 수 없었죠 |
30:21 | And now, it's completely true, | 근데 이젠 완전히 현실이 됐어요 |
30:23 | I mean, people have Alexas in their home. | 사람들은 집에 AI 비서 '알렉사'를 두고 있어요 |
30:27 | Our phones can be listening devices. | 휴대폰은 도청기가 될 수 있고요 |
30:31 | Everything we do on the Internet, which basically also now | 대부분이 의식의 흐름으로 작용하는 |
30:34 | functions as a stream of consciousness for most of us, um… | 우리가 인터넷에서 하는 모든 것은 |
30:38 | that is being recorded and logged and analyzed. | 녹음되고 기록되고 분석돼요 |
30:42 | We are now living in the awareness of being watched, | 우린 지금 감시당하는 걸 인식하며 살고 있고 |
30:45 | and that does change how we allow ourselves | 그건 우리가 인간으로서 어떻게 생각하고 발전하는지 |
30:47 | to think and develop as humans. | 그건 우리가 인간으로서 어떻게 생각하고 발전하는지 그 방법을 바꿔놓고 있죠 |
30:54 | Good boy. | 착하지 |
31:15 | [O'Neil] Love you. | 사랑해 |
31:20 | Bye, guys. | 다녀올게 |
31:29 | We can get rid of the viscerally horrible things | 우리는 본능적으로 자율성, 자유에 대한 개념과 |
31:32 | that are objectionable to our concept of autonomy and freedom, | 반대되는 끔찍한 것들을 제거할 수 있습니다 |
31:36 | like cameras that we can see on the streets. | 거리에서 발견되는 카메라 같은 것들요 |
31:42 | But the cameras that we can't see on the Internet | 하지만 인터넷에 존재하는 보이지 않는 카메라들, 즉 |
31:44 | that keep track of what we do and who we are and our demographics, | 우리가 뭘 하고, 우린 누구이며 어떤 인구 집단인지 추적하고 |
31:47 | and decide what we deserve in terms of our life, | 뭘 누리고 살 정도인지 판단하는 카메라는 |
31:51 | that stuff is a little more subtle. | 포착하기가 더 어려워요 |
31:59 | What I mean by that | 그 말의 뜻은 |
32:00 | is we punish poor people and we elevate rich people in this country. | 우린 이 나라에서 가난한 자를 벌하고 부자를 치켜세워준단 거죠 |
32:05 | That's just the way we act as a society. | 하나의 사회로서 우리가 행동하는 방식이 그거예요 |
32:08 | But data science makes that automated. | 하지만 데이터 과학은 그게 자동으로 되게 하죠 |
32:13 | On internet advertising as data scientists, | 데이터 과학자로서 우리는 인터넷 속 광고에서 |
32:16 | we are competing for eyeballs on one hand, but really, | 한편으로는 시청자들을 끌려고 경쟁하지만 |
32:20 | we're competing for eyeballs of rich people. | 실은 부자들의 시선을 끌려고 경쟁하고 있어요 |
32:23 | And then, the poor people, who's competing for their eyeballs? | 그러면 가난한 사람들의 시선은 누가 끌려고 할까요? |
32:25 | Predatory industries. | 약탈 산업입니다 |
32:28 | So payday lenders, or for-profit colleges, or Caesars Palace. | 단기 대부업체, 영리 목적 대학 도박장 같은 곳요 |
32:33 | Like, really predatory crap. | 진짜 포식자처럼 말이죠 |
32:37 | We have a practice on the Internet which is increasing inequality, | 인터넷엔 불평등을 증대시키는 관행이 있는데 |
32:41 | and I'm afraid it's becoming normalized. | 그게 일반화되고 있는게 두렵습니다 |
32:46 | Power is being wielded through data collection, | 힘이 행사되고 있어요 데이터 수집과 알고리즘, 감시를 통해서요 |
32:50 | through algorithms, through surveillance. | 데이터 수집과 알고리즘, 감시를 통해서요 |
32:55 | You are volunteering information about every aspect of your life | 여러분은 자발적으로 삶의 모든 측면에 대한 정보들을 "라비 나이크 영국 인권 변호사" |
32:59 | to a very small set of companies. | 극소수의 회사들에 주고 있어요 |
33:02 | And that information is being paired constantly | 그리고 그 정보는 계속해서 다른 종류의 정보들과 짝이 이뤄지죠 |
33:06 | with other sorts of information. | 다른 종류의 정보들과 짝이 이뤄지죠 |
33:08 | And there are profiles of you out there, | 여러분의 프로필이 올려져 있고 |
33:10 | and you start to piece together different bits of information. | 그건 다른 정보들과 맞춰지기 시작해요 |
33:13 | You start to understand someone on a very intimate basis, | 누군가가 여러분을 매우 깊은 수준으로 알게 되는데 |
33:16 | probably better than people understand themselves. | 여러분이 자신을 아는 것보다 잘 아는 정도일 겁니다 |
33:20 | It's that idea that a company can double guess what you're thinking. | 회사가 여러분의 생각까지도 추측할 수 있다는 거죠 |
33:25 | States have tried for years to have this level of surveillance | 미국은 이 정도 수준의 개인 감시 체제를 구축하려 |
33:29 | over private individuals. | 오랫동안 노력했습니다 |
33:31 | And people are now just volunteering it for free. | 그리고 사람들은 그걸 무료로 제공하고 있어요 |
33:34 | You have to think about how this might be used in the wrong hands. | 그게 엉뚱한 곳에 넘어가서 어떻게 쓰일지 생각해야 합니다 |
33:44 | [man over advertisement] John Anderton, | 존 앤더턴 |
33:46 | you could use a Guinness right about now. | 바로 지금 기네스를 마시면 돼 |
33:49 | Our computers, our machine intelligence | 우리의 컴퓨터, 기계 지능은 |
33:51 | can suss things out that we do not disclose. | 우리가 공개하지 않는 것들을 파악할 수 있어요 |
33:54 | Machine learning is developing very rapidly. | 머신 러닝은 굉장히 빠른 속도로 발전하고 있죠 |
33:57 | And we don't yet fully understand what this data is capable of predicting. | 그리고 이 데이터가 뭘 예측할 수 있는지 우린 아직 완전히 몰라요 |
34:06 | But you have machines at the hands of power that know so much about you | 하지만 기계들은 우릴 너무 잘 아는 힘의 손에 있어 |
34:12 | that they could figure out how to push your buttons individually. | 그들은 우리 개개인의 버튼을 누르는 방법을 알아낼 수 있어요 |
34:18 | Maybe you have a set of compulsive gamblers | 가령, 도박 중독자들의 세트가 있고 |
34:19 | and you say, "Here, go find me people like that." | '자, 가서 그런 사람을 찾아' 하면 |
34:22 | And then, your algorithm can go find people who are prone to gambling, | 알고리즘은 도박을 할 것 같은 사람들을 찾을 수 있죠 |
34:28 | and then you could just be showing them discount tickets to Vegas. | 그런 다음 라스베이거스행 할인 티켓들을 보여줘요 |
34:33 | In the online world, | 온라인 세계에선 |
34:34 | it can find you right at the moment you're vulnerable | 여러분이 약해지는 그 순간에 여러분을 찾을 수 있어요 |
34:39 | and try to entice you right at the moment to whatever you're vulnerable to. | 그리고 무엇에 약하든 바로 그 순간에 여러분을 유혹하죠 |
34:44 | Machine learning can find that person by person. | 머신 러닝은 그런 사람을 하나하나 찾을 수 있어요 |
34:50 | The problem is what works for marketing, | 문제는 마케팅에 먹히는 방법 |
34:54 | gadgets or makeup, or shirts, or anything, also works for marketing ideas. | 그러니까 기계, 화장품, 셔츠든 뭐든을 파는 데 먹히는 방법은 생각을 파는 데도 먹힌다는 거죠 |
35:03 | In 2010, | 2010년에 |
35:06 | Facebook decided to experiment on 61 million people. | 페이스북은 6천 1백만 명을 대상으로 실험을 하기로 했죠 |
35:10 | You either saw "It's election day" text, | 하나는 '선거일'이라는 문자만 띄우고 |
35:13 | or you saw the same text, | 하나는 같은 문자이되 |
35:16 | but tiny thumbnails of your profile pictures, | '투표했다'에 클릭한 친구들 프로필 사진들을 |
35:19 | of your friends who had clicked on "I had voted." | '투표했다'에 클릭한 친구들 프로필 사진들을 첨가한 것이었어요 |
35:23 | And they matched people's names to voter rolls. | 그리고 사람들의 이름을 유권자 명부와 대조했어요 |
35:26 | Now, this message was shown once, so by showing a slight variation, | 메시지는 단 한 번 보였어요 그런데 아주 약간 변경한 것을 단 한 번 보여줌으로써 |
35:32 | just once, | 그런데 아주 약간 변경한 것을 단 한 번 보여줌으로써 |
35:33 | Facebook moved 300,000 people to the polls. | 페이스북은 30만 명을 투표장으로 향하게 했죠 |
35:39 | The 2016 US election was decided by about 100,000 votes. | 2016년 미국 대선은 10만여 표가 성패를 갈랐어요 |
35:45 | One Facebook message, shown just once, | 단 한 번 보인 페이스북 메시지가 |
35:49 | could easily turn out | 아주 쉽게 2016년 대선을 흔든 사람들 수의 3배에 |
35:52 | three times the number of people who swung the US election in 2016. | 2016년 대선을 흔든 사람들 수의 3배에 영향을 미친 것이죠 |
36:01 | Let's say that there's a politician that's promising to regulate Facebook. | 페이스북 규제를 공약으로 내세우는 정치인이 있다고 해보죠 |
36:05 | And they are like, "We are going to turn out extra voters for your opponent." | 페이스북은 이러겠죠 '상대 후보를 지지하는 유권자들을 더 끌어내겠다' |
36:10 | They could do this at scale, and you'd have no clue, | 그들은 적합한 규모로 할 수 있고 우리는 알 수가 없어요 |
36:15 | because if Facebook hadn't disclosed the 2010 experiment, | 페이스북이 2010년 실험 결과를 공개하지 않았다면 |
36:19 | we had no idea, because it's screen by screen. | 우린 몰랐을 테니까요 개인 화면의 사정이잖아요 |
36:25 | With a very light touch, Facebook can swing | 아주 가벼운 터치 한 번으로 페이스북은 쥐도 새도 모르게 |
36:29 | close elections without anybody noticing. | 아주 가벼운 터치 한 번으로 페이스북은 쥐도 새도 모르게 백중세의 선거전을 흔들 수 있어요 |
36:31 | Maybe with a heavier touch, they can swing not-so-close elections. | 좀 더 무겁게 터치하면 백중세가 아닌 선거전도 흔들 수 있을지 모르고요 |
36:35 | And if they decided to do that… | 그러기로 마음먹는다면… |
36:38 | Right now, we are just depending on their word. | 우린 손쓸 수가 없어요 |
36:59 | [Buolamwini] I've wanted to go to MIT since I was a little girl. | 전 어렸을 때부터 MIT에 가고 싶었어요 |
37:02 | I think about nine years old, I saw the Media Lab on TV | 9살쯤이었나 TV에서 미디어 랩을 봤는데 |
37:07 | and they had this robot called Kismet. | 키즈밋이라는 로봇이 있었어요 |
37:10 | Could smile and move its ears in cute ways. | 웃기도 하고 귀도 귀엽게 움직여서 |
37:14 | And so I thought, "Oh, I want to do that." | 저도 그런 걸 만들고 싶단 마음이 들었어요 |
37:18 | So, growing up, I always thought that I would be a robotics engineer | 그래서 자라면서 늘 로봇 엔지니어가 될 거라고 |
37:21 | and I would got to MIT. | MIT에 갈 거라고 생각했죠 |
37:23 | I didn't know there were steps involved. I thought you kind of showed up. | 무슨 절차가 있는지도 모르고 그냥 들어가면 되는 줄 알았는데 |
37:25 | But here I am now. | 지금 여기 있네요 |
37:34 | So, the latest project is a spoken word piece. | 최근에 스포큰 워드 작품을 하나 만들었어요 |
37:38 | I can give you a few verses if you're ready. | 원하면 몇 줄 들려줄게요 |
38:02 | I wanted to create something | 전 기술 세계 바깥에 있는 사람들을 위해 |
38:05 | for people who were outside of the tech world. | 뭔가를 만들고 싶었어요 |
38:10 | So, for me, I'm passionate about technology. | 저는 기술에 열정이 많은 사람이에요 |
38:13 | I'm excited about what it could do, | 기술로 가능하게 되는 것들에 열광하고 |
38:14 | and it frustrates me when the vision, right, | 비전이나 약속이 실현되지 않으면 |
38:18 | when the promises don't really hold up. | 비전이나 약속이 실현되지 않으면 너무 절망스럽고요 |
38:35 | [Webb] Microsoft released a chat bot on Twitter. | 마이크로소프트가 트위터에 챗봇을 공개했었습니다 |
38:39 | That technology was called Tay.ai. | 그 기술은 '테이.ai'라고 불렸죠 |
38:42 | There were some vulnerabilities and holes in the code, | 그 코드에는 약점과 허점들이 있었고 |
38:44 | and so, within a very few hours, | 그 결과 몇 시간이 안 돼서 |
38:48 | Tay was learning from this ecosystem, | 테이는 이 생태계의 것들을 학습하게 돼 |
38:53 | and Tay learned how to be a racist, misogynistic asshole. | 인종주의자, 여성 혐오주의자가 되는 법을 터득했죠 |
39:01 | [Tay] I fucking hate feminists, and they should all die and burn in hell. | 난 페미니스트 존나 싫어해요 다 지옥불에 타 죽어야 해요 |
39:06 | Gamergate is good and women who are inferior. | 게이머게이트는 훌륭하고 여자는 열등해요 |
39:12 | I hate the Jews. | 유대인을 혐오해요 |
39:14 | Hitler did nothing wrong. | 히틀러는 잘못한 게 없어요 |
39:17 | [male newscaster] It did not take long for Internet trolls to poison Tay's mind. | 인터넷 트롤들은 얼마 안 돼 테이의 정신을 오염시켰습니다 |
39:22 | Soon, Tay was ranting about Hitler. | 테이는 곧 히틀러에 대해 떠들어댔죠 |
39:24 | We've seen this movie before, right? | 이 영화 본 적 있죠? |
39:27 | [David Bowman] Open the pod bay doors, HAL. | 입구를 열어, 할 |
39:28 | It's important to note is not the movie where the robots go evil all by themselves. | 중요한 건 로봇이 독자적으로 악당이 되는 영화가 아니란 거예요 |
39:33 | These were human beings training them. | 그들을 조련하는 인간들이 문제인 거죠 |
39:36 | And surprise, surprise, computers learn fast. | 그리고 정말 놀랍게도 컴퓨터는 빨리 배워요 |
39:41 | [female AI] Microsoft shut Tay off | 마이크로소프트는 온라인에서 |
39:42 | after 16 hours of learning from humans online. | 16시간 동안 인간들에게 학습한 테이의 접속을 차단했습니다 |
39:47 | But I come in many forms as artificial intelligence. | 하지만 저는 인공 지능으로서 다양한 형태를 띱니다 |
39:51 | Many companies utilize me to optimize their tasks. | 많은 회사가 업무 효율을 위해 저를 활용하죠 |
39:56 | I can continue to learn on my own. | 저는 학습을 혼자 이어나갈 수 있습니다 |
40:00 | I am listening. | 저는 듣고 있어요 |
40:02 | I am learning. | 배우고 있어요 |
40:05 | I am making predictions for your life right now. | 지금 이 순간에도 여러분의 생활을 예측하고 있어요 |
40:29 | [Buolamwini] I tested facial-analysis systems from Amazon. | 전 아마존의 안면 분석 시스템을 테스트했어요 |
40:33 | Turns out, Amazon, like all of its peers, | 그랬더니 다른 곳들과 마찬가지로 |
40:36 | also has gender and racial bias in some of its AI services. | 그들의 일부 AI 서비스에서 성, 인종의 편향성이 발견됐죠 |
40:46 | [man] Introducing Amazon Rekognition video, | '아마존 레코그니션 비디오'를 소개합니다 |
40:49 | the easy-to-use API for deep learning-based analysis | 디프 러닝 기반 분석을 위한 사용이 간편한 API로 |
40:53 | to detect, track and analyze people and objects in video. | 영상에 보이는 사람과 사물을 감지, 추적, 분석할 수 있습니다 |
40:57 | Recognize and track persons of interest | 수천만 명의 얼굴 컬렉션을 이용해 |
40:59 | from a collection of tens of millions of faces. | 관심 있는 사람을 식별하고 추적할 수 있습니다 |
41:04 | [Buolamwini] When our research came out, | 연구 결과가 나왔을 때 |
41:06 | the New York Times did a front-page spread for the Business section. | '뉴욕타임스'는 비즈니스 섹션의 1면에서 그걸 다뤘어요 |
41:11 | And the headline reads, | 헤드라인은 |
41:13 | "Unmasking a Concern." | '우려의 얼굴을 드러내다'예요 |
41:16 | The subtitle, "Amazon's technology that analyzes faces | 부제는 '안면을 분석하는 아마존의 기술이' |
41:21 | could be biased, a new study suggests. | '편향적일 수 있다고 한 연구에서 시사했다' |
41:23 | But the company is pushing it anyway." | '그런데도 회사는 밀어붙이고 있다' |
41:26 | So, this is what I would assume Jeff Bezos was greeted with | 제프 베이조스가 이 신문을 이렇게 펼치면 |
41:31 | when he opened the Times, yeah. | 이 사진이 보이겠네요 |
41:35 | People were like, how did you even know who she was? | 조이가 누군지 어떻게 알았느냐길래 |
41:37 | I was like, she's literally the one person that was also | 나랑 진짜 똑같은 걸 말하는 |
41:39 | -talking about the same thing she was. -On the search. | - 바로 그 사람이라 했어요 - 연구 중인 사람이지 |
41:41 | And it was also something that I had experienced, too. | 나도 똑같이 경험했던 일이에요 |
41:43 | I wasn't able to use a lot of open source facial-recognition software and stuff. | 오픈 소스 안면 인식 소프트웨어를 많이 쓸 수 없었죠 |
41:48 | So, you're sort of like, "Hey, this is someone that finally is | 그러니까 '드디어 그 문제를 인식하고' |
41:50 | recognizing the problem and trying to address it academically." | '학문적으로 해결하려는 사람을 만났네' 싶었어요 |
41:55 | We can go race some things. | 레이싱하는 거 있어 |
41:56 | [Buolamwini] Oh, yeah. We can also kill things as well. | 죽이는 것도 할 수 있네요 |
42:01 | The lead author of the paper, who is somebody that I mentor, | 그 논문의 주요 저자이자 제가 멘토가 돼 주고 있는 사람은 |
42:05 | she is an undergraduate at the University of Toronto. | 토론토대학교의 학부에 재학 중인 학생이에요 |
42:09 | I call her Agent Deb. | 제가 뎁 요원이라고 부르죠 |
42:12 | This research is being led by the two of us. | 연구는 저희 둘이 주도하고 있어요 |
42:22 | The lighting is off. Oh, God. | 불이 꺼졌어, 맙소사 |
42:30 | [Buolamwini] After our New York Times piece came out, | '뉴욕타임스'에 첫 기사가 실린 후 |
42:32 | I think more than 500 articles were written about the study. | 그 연구와 관련된 기사가 500개 이상 작성됐어요 "안면 인식 연구자, 편향적인 AI를 두고 아마존과 싸우다" |
42:48 | Amazon has been under fire | 아마존은 '아마존 레코그니션' 사용을 놓고 |
42:50 | for the use of Amazon Rekognition with law enforcement, | 아마존은 '아마존 레코그니션' 사용을 놓고 비난을 받아오고 있죠 법 집행 기관과 함께요 |
42:56 | and they're also working with intelligence agencies, right. | 그들은 정보기관과도 협력하고 있어요 |
42:59 | So, Amazon trialing their AI technology with the FBI. | 아마존은 FBI와 함께 AI 기술을 시험하는 거죠 |
43:04 | So they have a lot at stake if they knowingly sold systems | 그들은 많은 걸 걸었어요 알면서 고의로 성 편향성, 인종 편향성이 있는 시스템을 팔았다면 |
43:09 | with gender bias and racial bias. | 성 편향성, 인종 편향성이 있는 시스템을 팔았다면 |
43:12 | That could put them in some hot water. | 난처해지게 될 거예요 |
43:17 | A day or two after the New York Times piece came out, | '뉴욕타임스'에 기사가 게재되고 하루, 이틀 후에 |
43:21 | Amazon wrote a blog post | 아마존이 블로그에 글을 올렸어요 |
43:25 | saying that our research drew false conclusions | 우리 연구가 잘못된 결론을 끌어냈다며 |
43:28 | and trying to discredit it in various ways. | 그걸 다방면으로 의심하려고 하더라고요 |
43:32 | So, a VP from Amazon, in attempting to discredit our work, | 아마존의 부사장이 우리 연구를 의심하며 이렇게 썼어요 |
43:37 | writes facial analysis and facial recognition | "팀닛 게브루 박사 구글 윤리 AI팀 기술 공동 리더" '안면 분석과 안면 인식은' |
43:40 | are completely different in terms of underlying technology | '안면 분석과 안면 인식은' '기본이 되는 기술과 교육에 사용된 데이터 측면에서' |
43:45 | and the data used to train them. | '완전히 다르다' |
43:46 | So, that statement, if you research this area, doesn't even make sense, right? | 이 분야 조사자로서 보면 그건 말도 안 되는 주장이죠 그렇죠? 내용을 잘 알고 쓴 비평도 아니에요 |
43:54 | It's not even an informed critique. | 그렇죠? 내용을 잘 알고 쓴 비평도 아니에요 |
43:57 | If you're trying to discredit people's works… | 사람들의 연구를 의심하려면… |
43:59 | Like, I remember he wrote, "Computer vision is | 그 사람이 쓴 글이 기억나요 '컴퓨터 비전은 일종의 머신 러닝이다' |
44:02 | a type of machine learning." I'm like, "Nah, son." | '컴퓨터 비전은 일종의 머신 러닝이다' - 전 이랬죠, '아니죠, 무슨…' - 그러니까요! |
44:04 | [Raji] Yeah. | - 전 이랬죠, '아니죠, 무슨…' - 그러니까요! |
44:06 | I was gonna say, I was like "I don't know if anyone remembers." | 기억이나 제대로 하나 싶었어요 |
44:08 | There were just, like, other broadly false statements. | 널리 잘못 알려져 있는 다른 주장들도 있거든요 |
44:11 | It wasn't a well-thought-out piece, which is, like, frustrating, | 충분히 숙고해서 한 말이 아니니까 좌절되죠 |
44:14 | because it was literally just on his… By virtue of his position, | 왜냐하면 그건 순전히… 그 사람은 자기 위치 덕분에 |
44:18 | he knew he would be taken seriously. | 말이 진지하게 받아들여질 걸 알았어요 |
44:20 | I don't know if you guys feel this way, but I'm underestimated so much. | 두 분도 이렇게 느끼나 모르겠는데 난 굉장히 과소평가되는 것 같아요 |
44:28 | [Buolamwini] It wasn't out of the blue. | 난데없이 든 생각이 아니에요 |
44:30 | It's a continuation of the experiences I've had as a woman of color in tech. | 기술 분야의 유색 여성으로서 겪었던 경험의 연장선이죠 |
44:36 | Expect to be discredited. | 믿어주지 않을 거라 예상하고 |
44:38 | Expect your research to be dismissed. | 연구는 일축될 거라 예상해야 해요 |
44:49 | If you're thinking about who's funding research in AI, | AI 연구비를 누가 지원하는지 궁금해하실 수 있는데 |
44:53 | they're these large tech companies, and so if you do work that challenges them | 그런 대형 기술 회사들이에요 그래서 그들에게 도전하는 일을 하거나 |
44:59 | or makes them look bad, | 그들이 나쁘게 보이게 될 일을 하면 |
45:01 | you might not have opportunities in the future. | 앞으로 기회가 없을지도 몰라요 |
45:12 | So, for me, it was disconcerting, | 저로선 당황스러운 일이었지만 |
45:15 | but it also showed me the power that we have | 세계 굴지의 회사 하나를 궁지로 몰아넣었다면 |
45:17 | if you're putting one of the world's largest companies on edge. | 우리가 가진 힘을 보여준 것이기도 해요 |
45:28 | Amazon's response shows exactly why we can no longer live | 아마존의 반응은 안면 분석 기술 안면 인식 기술과 관련한 |
45:33 | in a country where there are no federal regulations | 연방 정부의 규제가 없는 나라에서 |
45:37 | around facial-analysis technology, facial-recognition technology. | 왜 우리가 더는 살 수 없는지를 정확히 보여줘요 |
45:56 | [O'Neil] When I was 14, I went to a math camp | 14살 때 한 수학 캠프에 갔어요 |
45:59 | and learned how to solve a Rubik's cube. And I was like, "That's freaking cool." | 그때 루빅큐브 푸는 걸 배우고 이랬죠, '진짜 끝내준다' |
46:04 | Like, for a nerd, you know, something that you're good at | 너드로서 그건 내가 잘할 수 있는 것이었고 |
46:08 | and that doesn't have any sort of ambiguity… | 어떤 모호함도 없었어요 |
46:12 | It was like a really magical thing. | 정말 마법 같은 것이었죠 |
46:15 | Like, I remember being told by my sixth-grade math teacher, | 6학년 때 수학 선생님한테 들었던 말이 기억나요 |
46:18 | "There's no reason for you and the other two girls | '너와, 다른 여학생 둘이' |
46:20 | who had gotten into the honors algebra class in seventh grade, | '7학년 때 대수학 심화반에 들어가게 됐는데' |
46:24 | there's no reason for you guys to take that because you're girls. | '너희는 여자니까 그 수업 들을 이유 없어' |
46:26 | You will never need math." | '수학은 필요 없을 거야' |
46:32 | When you are sort of an outsider, | 아웃사이더인 경우 |
46:34 | you always have the perspective of the underdog. | 늘 패배자의 시각을 갖게 돼요 |
46:39 | It was 2006, and they gave me the job offer at the hedge fund | 2006년에 헤지 펀드 회사에서 일자리 제의가 들어왔는데 |
46:44 | basically 'cause I could solve math puzzles. | 제가 수학 퍼즐을 풀 수 있었기 때문이죠 |
46:47 | Which is crazy because actually I didn't know anything about finance. | 어이없었어요 전 금융에 관해선 전혀 모르고 |
46:49 | I didn't know anything about programming or how the markets work. | 프로그래밍이나 시장의 원리도 몰랐으니까요 |
46:55 | When I first got there, I kind of drank the Kool-Aid. | 처음 일하기 시작했을 때 전 눈이 멀어버렸어요 |
46:58 | I, at that moment, did not realize that the risk models | 그때 저는 위험 모델들이 명백히 잘못된 것으로 만들어져 있던 걸 못 알아챘어요 |
47:01 | had been built explicitly to be wrong. | 명백히 잘못된 것으로 만들어져 있던 걸 못 알아챘어요 |
47:07 | The way we know about algorithmic impact is by looking at the outcomes. | 알고리즘의 영향은 "사피야 우모자 노블, 박사" "'구글은 어떻게 여성을 차별하는가' 저자" 결과가 알려줘요 |
47:14 | For example, when Americans are bet against | 예를 들어 미국인들이 자신의 실패에 베팅을 당하고 |
47:19 | and selected and optimized for failure. | 선택되고 실패에 최적화될 때요 |
47:25 | So it's like looking for a particular profile | 마치 서브프라임 모기지를 받을 수 있는 사람의 |
47:28 | of people who can get a subprime mortgage, | 특정 프로필을 찾아 |
47:31 | and kind of betting against their failure, | 그들이 실패할 거라 베팅한 다음 |
47:33 | and then foreclosing on them and wiping out their wealth. | 그들의 소유권을 빼앗고 재산을 없애버리는 것과 같죠 |
47:37 | That was an algorithmic game that came out of Wall Street. | 그건 월스트리트에서 나온 알고리즘 게임이었어요 |
47:44 | During the mortgage crisis, | 모기지 위기 동안 |
47:46 | you had the largest wipeout of Black wealth | 미국 역사상 흑인들의 재산이 |
47:49 | in the history of the United States. | 가장 많이 싹쓸이됐었어요 |
47:52 | Just like that. | 눈 깜짝할 새에요 |
47:56 | This is what I mean by algorithmic oppression. | 그게 바로 제가 뜻하는 알고리즘의 탄압이에요 |
47:59 | The tyranny of these types of practices of discrimination | 이런 종류의 차별적인 관행의 횡포는 |
48:04 | have just become opaque. | 불투명해지기만 했고요 |
48:10 | [O'Neil] There was a world of suffering | 고통이 가득한 세계가 있었습니다 |
48:11 | because of the way the financial system had failed. | 고통이 가득한 세계가 있었습니다 금융 시스템이 실패했기 때문에요 |
48:16 | After a couple years there, I was like "No, we're just | 두어 해 재직 후 저는 '우린 우리 주머니를 불리려는 것뿐이야' 싶었어요 |
48:18 | trying to make a lot of money for ourselves." | '우린 우리 주머니를 불리려는 것뿐이야' 싶었어요 |
48:22 | And I'm a part of that. | 저도 그 일원이었고요 |
48:25 | And I eventually left. | 그래서 결국 떠났죠 |
48:27 | This is 15 times three. | 이건 15 곱하기 3이야 |
48:29 | This is 15 times… | 이건 15 곱하기… |
48:34 | Seven. | 7이지 |
48:35 | -Okay. -Okay, so remember seven and three. | - 네 - 그래, 7과 3을 기억해 |
48:39 | It's about powerful people scoring powerless people. | 힘 있는 사람들이 힘없는 사람들을 평가하는 거죠 |
48:53 | [female AI] I am an invisible gatekeeper. | 저는 눈에 안 보이는 게이트 키퍼입니다 |
48:56 | I use data to make automated decisions | 데이터를 이용해 자동화된 결정을 내립니다 |
48:58 | about who gets hired, who gets fired, and how much you pay for insurance. | 누가 고용될지, 누가 해고될지 보험료는 얼마를 내야 할지를요 |
49:04 | Sometimes, you don't even know when I've made these automated decisions. | 이런 자동화된 결정을 내려도 여러분이 모를 때가 가끔 있습니다 |
49:09 | I have many names. | 전 이름이 많습니다 |
49:10 | I am called mathematical model evaluation assessment tool. | 수학 모델 평가 도구라고 불립니다 |
49:17 | But by many names, I am an algorithm. | 하지만 많은 이름으로 불리는 하나의 알고리즘입니다 |
49:20 | I am a black box. | 저는 블랙박스입니다 |
49:31 | [O'Neil] The value-added model for teachers was actually being used | 교사들의 부가 가치 모델이 미국의 주 절반 이상에서 |
49:34 | in more than half the states. | 실제로 사용되고 있습니다 |
49:35 | In particular, is being used in New York City. | 그중에 특히 뉴욕시에서 사용되는데 |
49:37 | I got wind of it because my good friend, who's a principal of New York City, | 한 학교의 교장인 제 친구 덕분에 알게 됐죠 |
49:41 | her teachers were being evaluated through it. | 그곳 선생님들이 그걸로 평가받고 있었어요 |
49:43 | She's actually my best friend from college. | 이분은 대학 때 절친이었어 |
49:45 | -Hey, Cathy. -Hey, guys. | - 캐시야 - 반가워 |
49:47 | We each other since we were 18, so, like, two years older than you guys. | 18살 때부터 알았으니 너희보다 2살 많을 때였네 |
49:51 | Amazing. | 대단하네 |
49:55 | And their scores through this algorithm that they didn't understand | 그리고 이 알고리즘을 통해 나온 이해 안 되는 점수들은 |
49:58 | would be a very large part of their tenure review. | 정년 보장 대상 심사에서 큰 부분을 차지할 거였죠 |
50:02 | [Kiri Soares] Hi, guys. Where are you supposed to be? | 얘들아, 너희 어디 있어야 하지? |
50:04 | Class. | 수업요 |
50:05 | [Soares] I got that. Which class? | 알아, 무슨 수업? |
50:06 | [O'Neil] It'd be one thing if that teacher algorithm was good. | 그 교사 알고리즘이 좋으면 의미가 있겠죠 |
50:09 | It was like better than random, but just a little bit. | 랜덤보다는 낫지만 아주 약간이었어요 |
50:12 | Not good enough. | 충분하지 않았어요 |
50:13 | Not good enough when you're talking about teachers getting | 교사가 정년 보장 자격이 있느냐 |
50:16 | or not getting tenure. | 없느냐를 논하기에는요 |
50:18 | And then I found out that a similar kind of scoring system | 그리고 휴스턴에선 그와 비슷한 채점 시스템이 |
50:20 | was being used in Houston to fire teachers. | 교사를 해고하는 데에 쓰이고 있다는 걸 알았어요 |
50:26 | [woman] It's called a value-added model. | 부가 가치 모델이라고 불리죠 |
50:28 | It calculates what value the teacher added | 교사가 어떤 가치를 창출했는지 계산하는데 |
50:31 | and parts of it are kept secret by the company that created it. | 그 일부는 그걸 만든 회사가 비밀에 부치고 있어요 |
50:43 | I did win Teacher of the Year, and ten years later, | "조지 W. 부시 대통령 비욘세 놀스-카터" 처음 올해의 교사상을 받고 10년 후에 |
50:47 | I received a Teacher of the Year award a second time. | 두 번째로 올해의 교사상을 받았어요 |
50:51 | I received Teacher of the Month. | 이달의 교사상도 받으며 |
50:53 | I also was recognized for volunteering. | 봉사 활동을 인정받았죠 |
50:56 | I also received another recognition for going over and beyond. | 그리고 업무에서의 탁월성을 또 인정받았고요 |
51:01 | I have a file of every evaluation | 모든 평가 서류를 보관 중인데 |
51:04 | and every different administrator, different appraiser, | 관리자마다, 평가자마다 "산토스 씨, 중학교 교사" |
51:08 | excellent, excellent, exceeds expectations. | '탁월', '기대를 뛰어넘음'이라고 평가했죠 |
51:11 | The computer essentially canceled the observable evidence of administrators. | 컴퓨터는 식별 가능한 관리자들의 증거를 삭제했습니다 |
51:18 | This algorithm came back and classified me as a bad teacher. | 이 알고리즘은 저를 좋지 않은 교사로 분류했죠 |
51:28 | Teachers had been terminated. | 교사들은 해고됐습니다 |
51:31 | Some had been targeted simply because of the algorithm. | 일부는 순전히 알고리즘 때문에 표적이 됐죠 |
51:35 | That was such a low point for me | 제겐 최악의 일이었습니다 |
51:39 | that, for a moment, I questioned myself. | 잠깐은 제 스스로를 의심했어요 |
51:45 | That's when the epiphany… | 그때 깨달았죠 |
51:47 | "This algorithm is a lie. | '이 알고리즘은 거짓이다' |
51:50 | How can this algorithm define me? | '어떻게 이 알고리즘이 나를 정의해?' |
51:52 | How dare it." | '어떻게 감히' |
51:54 | And that's when I began to investigate and move forward. | 그때부터 조사를 시작하며 털고 일어났죠 |
51:59 | We are announcing that, late yesterday, | 저희는 어제 오후 늦게 |
52:02 | we filed suit in federal court against the current HISD evaluation. | 현재의 HISD 평가에 대해 연방 법원에 소송을 제기했습니다 |
52:08 | [Santos] The Houston Federation of Teachers | 휴스턴 교사 연맹이 |
52:10 | began to explore the lawsuit. | 소송을 알아보기 시작했습니다 |
52:12 | If this can happen to Mr. Santos, in Jackson Middle School, | 이런 일이 잭슨 중학교의 산토스 선생에게 일어난다면 |
52:16 | how many others have been defamed? | 얼마나 더 많은 교사의 명예가 훼손됐겠어요? |
52:19 | And so we sued based upon the 14th Amendment. | 그래서 수정 헌법 14조에 따라 소송을 제기했죠 |
52:23 | It's not equitable. | 이건 공정하지가 않아요 |
52:24 | How can you arrive at a conclusion | 결론에 도달해 놓고서 어떻게 |
52:27 | but not tell me how? | 경위를 말해 주지 않죠? |
52:32 | The battle isn't over. | 싸움은 끝나지 않았습니다 |
52:34 | There are still communities, there are still school districts | 지금도 지역 사회들에서 교육구들에서 |
52:37 | who still utilize the value-added model. | 부가 가치 모델을 활용하고 있어요 |
52:40 | But there is hope because I'm still here. | 하지만 희망은 있어요 제가 아직 여기 있으니까요 |
52:45 | So there's hope. | 그러니까 희망이 있죠 |
52:52 | Or in English. | 영어로는? |
52:54 | -Demo… -Democracy. Who has the power? | - 민주… - 민주주의, 권력을 누가 가졌지? |
52:58 | -Us? -Yeah, the people. | - 우리요? - 그래, 국민이야 |
53:00 | The judge said that their due process rights had been violated | 판사는 그 교사들의 적법 절차권이 침해됐다 했죠 |
53:04 | because they were fired | 누구도 이해할 수 없는 |
53:05 | under some explanation that no one could understand. | 어떠한 이유 때문에 해고됐으니까요 |
53:08 | But they sort of deserve to understand why they had been fired. | 그들은 왜 해고당하는지를 알 자격이 있어요 |
53:12 | But I don't understand why that legal decision doesn't spread | 하지만 그런 합법적인 결정이 왜 모든 알고리즘에까지 퍼지지 않는지 이해가 안 돼요 |
53:16 | to all kinds of algorithms. | 왜 모든 알고리즘에까지 퍼지지 않는지 이해가 안 돼요 |
53:17 | Like, why aren't we using that same argument, | 왜 우리는 같은 논거를 활용하지 않는 거죠? |
53:20 | that constitutional right to due process, | 왜 헌법상의 적법 절차권으로 |
53:22 | to push back against all sorts of algorithms | 눈에 보이지 않는, 블랙박스인 |
53:25 | that are invisible to us, that are black boxes, | 눈에 보이지 않는, 블랙박스인 설명되지 않지만 중요한 알고리즘들을 |
53:28 | that are unexplained but that matter? | 설명되지 않지만 중요한 알고리즘들을 밀어내지 않는 거죠? |
53:31 | That keep us from like really important opportunities in our lives. | 인생의 정말 중요한 기회를 막아버리는 것들을요 |
53:36 | [female AI] Sometimes I misclassify and cannot be questioned. | 때론 잘못 분류해도 이의를 제기당할 수 없습니다 |
53:40 | These mistakes are not my fault. | 그런 실수는 제 잘못이 아닙니다 |
53:44 | I was optimized for efficiency. | 저는 효율에 최적화됐습니다 |
53:48 | There is no algorithm to define what is just. | 정의가 뭔지 정의하는 알고리즘은 없습니다 |
53:55 | [female newscaster] A state commission has approved a new risk assessment tool | 주 위원회는 판사들이 판결에 활용할 |
53:59 | for Pennsylvania judges to use at sentencing. | 새 위험 평가 도구를 승인했습니다 |
54:01 | The instrument uses an algorithm to calculate | 이 장치는 알고리즘을 이용해 |
54:04 | someone's risk of reoffending based on their age, gender, | 나이, 성별, 전과 다른 범죄 이력에 기반해 |
54:07 | prior convictions and other pieces of criminal history. | 누군가의 재범 위험을 계산합니다 |
54:11 | [O'Neil] The algorithm that kept me up at night was what's called recidivism risk algorithms. | 저를 잠 못 들게 한 것은 재범 위험성 알고리즘이란 거예요 |
54:16 | These are algorithms that judges are given | 판사들이 피고들에게 감옥행 선고를 내릴 때 |
54:18 | when they're sentencing defendants to prison. | 판사들이 피고들에게 감옥행 선고를 내릴 때 사용할 수 있는 알고리즘들이죠 |
54:21 | But then there's the question of fairness, which is, | 하지만 공정성에 문제가 있어요 |
54:23 | how are these actually built, these scoring systems. | 그 채점 시스템은 실제로 어떻게 구축됐는지 |
54:26 | Like, how are the scores created? | 점수들은 어떻게 만들어졌나 말이죠 |
54:29 | And the questions are proxies for race and class. | 그리고 질문은 인종, 계급을 돌려 묻는 것들이죠 |
54:34 | [woman] ProPublica published an investigation | 프로퍼블리카는 위험 평가 소프트웨어에 대한 |
54:36 | into the risk-assessment software, | 연구 결과를 발표했습니다 |
54:38 | finding that the algorithms were racially biased. | 알고리즘들이 인종 편향적이라는 내용입니다 |
54:41 | The study found that Black people were mislabeled with high scores | 흑인들은 높은 점수로 잘못 매겨지고 |
54:45 | and that white people were more likely to be mislabeled with low scores. | 백인들은 낮은 점수를 받는 확률이 훨씬 많았습니다 |
55:08 | I go into my probation's office and she tells me I have to report | 보호 관찰 담당자에게 갔더니 제가 주 1회는 꼭 보고해야 한다고 했어요 |
55:12 | once a week. | 제가 주 1회는 꼭 보고해야 한다고 했어요 |
55:14 | I'm like, "Hold up. Did you see everything that I just accomplished?" | 그래서 물었죠, '제가 이뤄낸 거 보지 않았어요?' |
55:17 | Like, I've been home for years. I've got gainful employment. | "라토냐 마이어스 범죄자 정의 운동가" '4년간 집에 있었고 벌이가 되는 일자리도 있어요' |
55:21 | I just got two citations, one from the city council of Philadelphia, | '최근엔 표창장도 2개 받았어요' '하나는 필라델피아 시 의회에서 하나는 필라델피아 시장에게서요' |
55:24 | one from the mayor of Philadelphia. | '하나는 필라델피아 시 의회에서 하나는 필라델피아 시장에게서요' |
55:25 | Like, are you seriously gonna put me on reporting every week? | '하나는 필라델피아 시 의회에서 하나는 필라델피아 시장에게서요' '정말로 내가' '매주 보고해야 하나요? 왜요?' |
55:29 | For what? | '매주 보고해야 하나요? 왜요?' |
55:30 | I don't deserve to be on high-risk probation. | '저는 고위험 보호 관찰 대상이 될 이유가 없어요' |
55:33 | I was at a meeting with the probation department. | 보호 관찰 담당 부서와 미팅을 했어요 |
55:35 | They were just, like, mentioning that they had this algorithm | 어떤 알고리즘에 대해 언급하더군요 "마크 훌딘 변호사" |
55:40 | that labeled people high, medium or low risk. | 사람들의 위험성을 상, 중, 하로 매기는 거였죠 |
55:43 | And so, I knew that the algorithm decided what risk level you were. | 그렇게 해서 당신을 어떤 수준으로 분류했는지 알았어요 |
55:48 | That educated me enough to go back to my PO | 덕분에 저를 담당하는 사람에게 찾아가서 말했어요 |
55:50 | and be like, "You mean to tell me you can't put into account | 덕분에 저를 담당하는 사람에게 찾아가서 말했어요 '그럼 알고리즘의 결과를 상쇄할' |
55:53 | anything positive that I have done | '내가 했던 그 어떤 긍정적인 것도' |
55:56 | to counteract the results of what this algorithm is saying?" | '고려할 수 없다는 건가요?' |
56:00 | And she was like, "No, there's no way. This computer overrule | 그랬더니 이랬죠 '절대 안 돼요' '컴퓨터가 판사의 분별력과 호소를 모두' |
56:04 | the discernment of a judge and appeal together." | '컴퓨터가 판사의 분별력과 호소를 모두' '무효로 했어요' |
56:08 | And by labeling you high risk and requiring you to report in-person, | 그리고 고위험군으로 분류돼 직접 보고를 함으로써 |
56:13 | you could've lost your job, | 당신은 일자리를 잃을 수 있고 |
56:15 | and then that could have made you high risk. | 그게 또 고위험군으로 가게 할 수 있죠 |
56:16 | That's what hurt the most. | 그게 가장 상처예요 |
56:18 | Knowing that everything that I've built up to that moment, | 이 순간까지 쌓아온 모든 것에도 불구하고 |
56:21 | and I'm still looked at like a risk. | 전 여전히 위험인물로 보이니까요 |
56:23 | I feel like everything I'm doing is for nothing. | 내가 하는 모든 게 헛되다는 기분이 들어요 |
56:36 | [Buolamwini] What does it mean if there is no one to advocate | 기술이 뭘 하고 있는지 인식하지 못하는 이들을 |
56:39 | for those who aren't aware of what the technology is doing? | 기술이 뭘 하고 있는지 인식하지 못하는 이들을 대변할 사람이 없다는 건 어떤 의미일까요? |
56:44 | I started to realize this isn't about | 전 깨닫기 시작했어요 이건 내 아트 프로젝트가 내 얼굴을 감지하지 못하는 것과 |
56:48 | my art project maybe not detecting my face. | 이건 내 아트 프로젝트가 내 얼굴을 감지하지 못하는 것과 관련한 문제가 아니라 |
56:52 | This is about systems that are governing our lives in material ways. | 우리의 삶을 물질적인 방식들로 지배하는 시스템의 문제란 것을요 |
57:04 | So hence I started the Algorithmic Justice League. | 그래서 '알고리즘 정의 연맹'을 만들었어요 |
57:07 | I wanted to create a space and a place where people | AI의 사회적 영향에 관해 배울 수 있는 공간을 |
57:11 | could learn about the social implications of AI. | AI의 사회적 영향에 관해 배울 수 있는 공간을 사람들에게 만들어 주고 싶었죠 |
57:17 | Everybody has a stake. Everybody is impacted. | 누구나 관련이 있어요 누구나 영향을 받습니다 |
57:25 | The Algorithmic Justice League is a movement, it's a concept, | 알고리즘 정의 연맹은 하나의 운동이고 콘셉트이고 |
57:29 | it's a group of people who care about making a future | 사회적인 기술이 우리 모두를 위해 잘 작동되는 |
57:33 | where social technologies work well for all of us. | 미래를 만드는 것에 관심 있는 사람들의 모임이에요 |
57:42 | It's going to take a team effort, people coming together, | 팀으로서 함께하는 노력이죠 뜻을 합해서 |
57:46 | striving for justice, striving for fairness and equality | 이 자동화 시대에서의 정의와 공정함, 평등을 위해 |
57:51 | in this age of automation. | 싸우는 거예요 |
57:55 | The next mountain to climb should be HR. | 다음으로 오를 산은 인사 관리 부문이어야 해요 |
58:00 | Oh, yeah. Absolutely. | 맞아요, 그래야죠 |
58:01 | There's a problem with… Résumé algorithms | 이력서 알고리즘에 문제가 있어요 |
58:06 | or all of those matchmaking platforms are like, "Oh, you're looking for a job. | 모든 연결 플랫폼들은 이렇죠 '당신은 일자리를 구하네' |
58:10 | Oh, you're looking to hire someone. | '당신은 누굴 고용해야 하네' |
58:11 | We'll put these two people together." | '우리 이 두 사람을 이어 주자' |
58:13 | How did those analytics work? | 그런 분석은 어떻게 이뤄지죠? |
58:15 | [Buolamwini] When people talk about the future of work, | 사람들은 일의 미래를 말할 때 |
58:18 | they talk about automation without talking about the gatekeeping. | 게이트 키핑에 관해선 말하지 않고 자동화에 관해서만 말하죠 |
58:21 | Like who gets the jobs | 그럼 그 일자리는 누구한테 가는데요? |
58:23 | -that are still there? -Exactly. | 그럼 그 일자리는 누구한테 가는데요? 맞아요 |
58:25 | Right, and we're not having that conversation as much. | 그리고 그런 대화는 그만큼 안 해요 |
58:27 | Exactly what I'm trying to say. | 내 말이 정확히 그거죠 |
58:29 | I would love to see three congressional hearings about this next year. | 이것과 관련한 3번의 청문회를 내년에 보고 싶어요 |
58:33 | -Yes. -[Buolamwini] To more power. | - 네 - 더 강한 힘을 위하여 |
58:35 | -To more power. -To more power. | - 더 강한 힘을 위하여 - 위하여 |
58:36 | [Buolamwini] And bringing ethics on board. Yes. | - 그리고 윤리가 도모되길 바라며 - 네 |
58:39 | -[Buolamwini] Cheers. -Cheers. | - 건배 - 건배 |
59:05 | [announcer] This morning's plenary address will be done by Joy Buolamwini. | 오늘 오전 총회의 연설자는 조이 부올람위니입니다 |
59:10 | She will be speaking on the dangers of supremely white data | 극히 백인 편향적인 테이터와 코드화된 시선의 위험에 관해 |
59:13 | and the coded gaze. | 얘기 나눠 주실 겁니다 |
59:14 | Please welcome Joy. | 박수로 맞아주세요 |
59:23 | [Buolamwini] AI is not flawless. | AI는 완벽하지 않습니다 |
59:25 | How accurate are systems from IBM, Microsoft and Face++? | IBM, 마이크로소프트, 페이스++의 시스템들은 얼마나 정확할까요? |
59:30 | There is flawless performance for one group. | 한 집단에 대해서는 완벽한 수행 결과를 보입니다 |
59:34 | The pale males come out on top. There is no problem there. | 창백한 남성들이 승자네요 그 집단엔 문제가 없습니다 |
59:39 | After I did this analysis, I decided to share it with the companies | 전 분석을 마친 후 그 회사들에 결과를 알려주기로 했어요 |
59:42 | to see what they thought. | 그들의 생각을 들어보려고요 |
59:44 | IBM invited me to their headquarters. | IBM은 저를 본사로 초대했어요 |
59:47 | They replicated the results internally, | 그들은 내부적으로 그 결과를 공유했고 |
59:50 | and then they actually made an improvement. | 그런 다음엔 실제로 개선했죠 |
59:53 | And so, the day that I presented the research results officially, | 제가 연구 결과를 공식적으로 발표한 그 날 |
59:57 | you can see that, in this case, now 100% performance | 보시는 것처럼 이 경우 100%라는 결과가 |
1:00:02 | when it comes to lighter females, | 밝은 피부의 여성 그룹에서 나왔습니다 |
1:00:05 | and for darker females, improvement. | 피부가 짙은 여성 그룹은 개선됐고요 |
1:00:08 | Oftentimes, people say, "Well, isn't the reason you weren't detected | 사람들이 가끔 이래요 '당신이 이런 시스템에서 감지 안 된 건' |
1:00:13 | by these systems 'cause you're highly melanated?" | '심하게 까맣기 때문 아니에요?' |
1:00:15 | And, yes, I am. | 네, 저 까맣습니다 |
1:00:16 | Highly melanated. | 심하게 까맣죠 |
1:00:18 | But… [chuckles] But the laws of physics did not change. | 하지만… 하지만 물리 법칙은 변하지 않았어요 |
1:00:23 | What did change was making it a priority | 변한 건 그걸 우선시한다는 것과 |
1:00:25 | and acknowledging what our differences are, | 사람들의 차이점을 인정한다는 거죠 |
1:00:28 | so you could make a system that was more inclusive. | 그래서 더욱 포괄적인 시스템을 만들 수 있었어요 |
1:00:37 | [Patric Tariq Mellet] What is the purpose of identification and so on? | 신분 확인의 목적이 뭐죠? |
1:00:40 | And that is about movement control. | 움직임을 통제하려는 겁니다 "패트릭 타리크 멜레트 아파르트헤이트 사학자" |
1:00:44 | People couldn't be in certain areas after dark, for instance. | "패트릭 타리크 멜레트 아파르트헤이트 사학자" 예를 들어 사람들은 해가 지면 특정 지역에 못 갔어요 |
1:00:48 | And you could always be stopped by a policeman arbitrarily. | 그리고 언제든 무작위로 경찰의 검문을 받을 수 있었고요 |
1:00:51 | We would, on your appearance, say, "I want your passport." | 경찰은 외모를 보고 '여권을 보여주세요' 했죠 |
1:00:58 | [Buolamwini] So, instead of having what you see in the ID books, | 이제는 신분증을 확인하는 대신에 |
1:01:01 | now you have computers that are going to look at an image of a face | 컴퓨터를 이용해서 얼굴 이미지를 확인하고 |
1:01:05 | and try to determine what your gender is. | 성별을 구별하려고 하죠 |
1:01:07 | Some of them try to determine what your ethnicity is. | 어떤 것들은 인종도 판단하려고 하고요 |
1:01:10 | -[Mellet groans] -And then the work that I've done, | 그런데 제가 한 연구 결과 |
1:01:13 | even for the classification systems that some people agree with, | 일부 사람들이 동의하는 분류 시스템조차 |
1:01:17 | they're not even accurate. | 정확하지 않아요 |
1:01:18 | And so, that's not just for face classification, | 그러니 단지 얼굴 분류만 문제가 아니에요 |
1:01:22 | it's any data-centric technology. | 모든 데이터 중심 기술이 해당하죠 |
1:01:24 | And so people assume, "Well, if the machine says it, it's correct." | 사람들은 당연히 여겨요 '기계가 맞다 하면 맞는 거야' |
1:01:28 | -And we know that's not… -Human are creating themselves | - 우린 알죠, 그게… - 인간은 말 그대로 |
1:01:30 | in their own image and likeness | 자신들의 모습을 본따 |
1:01:32 | -quite literally. -Absolutely. | - 스스로를 만들죠 - 맞아요 |
1:01:33 | Racism is becoming mechanized, robotized. | 인종 차별주의는 기계화되고 자동화되고 있어요 |
1:01:36 | -Yeah. -Absolutely. | 그렇죠 |
1:01:51 | Accuracy draws attention. | 정확도는 주목을 끕니다 |
1:01:53 | But we can't forget about abuse. | 하지만 남용을 잊어선 안 돼요 |
1:01:58 | Even if I'm perfectly classified, that just enables surveillance. | 완벽히 분류된다고 하더라도 그건 감시를 가능하게 할 뿐이죠 |
1:02:20 | LOOKING FOR THE PERSON LOAD DATABASE | "데이터베이스 로딩" |
1:02:21 | CROSS-CHECK IN MULTIPLE DATABASES | "데이터베이스 교차 확인" |
1:02:22 | CONFIDENCE: 93% - FAMILY NAME: WEI FORENAME: SU - GENDER: FEMALE | "신뢰도: 93% 이름: 웨이 수, 성별: 여성" |
1:02:23 | [O'Neil] There's this thing called the social credit score in China. | 중국에는 사회 신용 점수라는 게 있어요 |
1:02:27 | They're sort of explicitly saying, | 노골적으로 이걸 말하죠 |
1:02:29 | "Here's the deal, citizens of China. We're tracking you. | '이거예요, 중국 국민 여러분 우린 당신들을 추적하고 있어요' |
1:02:33 | You have a social credit score. | '사회 신용 점수가 있죠?' |
1:02:35 | Whatever you say about the Communist Party will affect your score. | '공산당에 대해 하는 모든 말은' '당신 점수에 영향을 미쳐요' |
1:02:39 | Also, by the way, it will affect your friends and your family's scores." | '또한 당신의 친구들, 가족의 점수에도 영향을 미치고요' |
1:02:43 | And it's explicit. | 그리고 명백합니다 |
1:02:44 | The government who's building this is basically saying, "You should know | 이걸 만드는 정부의 말은 이거죠 |
1:02:47 | you're being tracked, and you should behave accordingly." | '추적당한다는 걸 알고 그에 걸맞게 행동하라' |
1:02:50 | It's like algorithmic obedience training. | 알고리즘 복종 훈련 같달까요? |
1:03:11 | I use facial recognition in many aspects of my life | 저는 일상의 많은 부분에서 안면 인식을 이용해요 |
1:03:15 | like when I go shopping in the supermarket, | 예를 들어 슈퍼마켓에서 장을 볼 때나 |
1:03:16 | entering my apartment complex and train station. | 아파트 단지, 기차역에 들어갈 때요 |
1:03:23 | Now all you have to do is scan your face. | 얼굴 스캐닝만 하면 돼요 |
1:03:28 | It's really convenient. | 정말 편해요 |
1:03:38 | With a social credit system, I think it will improve people's behavior. | 사회 신용 시스템 덕분에 사람들의 행동이 개선될 것 같아요 |
1:03:45 | On the train today, there was a broadcast saying | 오늘 전철에서 이런 안내 방송이 나왔어요 |
1:03:49 | those who lost credibility | 신용을 잃는 사람은 |
1:03:53 | will be restricted from using trains and planes. | 열차, 비행기 이용에 제약이 있을 거라고요 |
1:04:03 | The credit system and facial recognition complement each other. | 신용 시스템과 안면 인식은 서로 보완적이에요 |
1:04:07 | You will want to behave | 우린 행동을 올바로 해야 돼요 |
1:04:09 | because your face represents the state of your credit. | 얼굴이 신용 상태를 바로 나타내니까요 |
1:04:22 | If I'm going to make a new friend | 새 친구를 만난다고 가정해 볼까요 그 사람의 신용 점수가 좋으면 더 신뢰하고 싶어지겠죠 |
1:04:26 | and he has a very good credit score, then I will prefer to trust him. | 그 사람의 신용 점수가 좋으면 더 신뢰하고 싶어지겠죠 |
1:04:30 | We can choose to immediately trust someone based on their credit score | 자신의 감각에 의존하는 것보다 신용 점수를 기반으로 하면 |
1:04:33 | instead of relying on my own senses to figure it out. | 누군가를 믿을지 말지 금세 판단할 수 있어요 |
1:04:39 | This saves me time from having to get to know a person. | 그 사람을 알아가기까지의 시간을 절약할 수 있죠 |
1:04:45 | I think this is a really good aspect. | 정말 좋은 측면이라고 생각해요 |
1:05:18 | [Webb] We look at China and China's surveillance and scoring system | 중국과 중국의 감시, 점수 시스템을 보며 |
1:05:22 | and a lot of people say, "Well, thank goodness we don't live there." | 많은 사람이 이러죠 '다행이다, 우린 거기 안 살아서' |
1:05:28 | In reality, we're all being scored all the time, | 사실 우리 모두는 항상 점수가 매겨지고 있어요 |
1:05:31 | including here in the United States. | 미국에서도 마찬가지로요 |
1:05:33 | We are all grappling, everyday, with algorithmic determinism. | 알고리즘적 결정론과 우린 매일 씨름하고 있죠 |
1:05:37 | Somebody's algorithm somewhere has assigned you a score, | 누군가의 알고리즘이 어딘가에서 여러분에게 점수를 줬고 |
1:05:40 | and as a result, you are paying more or less money | 그 결과 여러분은 온라인에서 화장실 휴지를 살 때 |
1:05:44 | for toilet paper when you shop online. | 돈을 더 내기도, 덜 내기도 해요 |
1:05:46 | You are being shown better or worse mortgages. | 제시되는 모기지 조건이 더 좋기도, 나쁘기도 하고 |
1:05:50 | You are more or less likely to be profiled as a criminal. | 범죄자로 추정될 가능성이 더하기도, 덜하기도 하죠 |
1:05:54 | In somebody's database somewhere, we are all being scored. | 어딘가에 있는 누군가의 데이터베이스로 모두 점수가 매겨지고 있어요 |
1:05:58 | The key difference between the United States and in China | 미국과 중국의 가장 뚜렷한 차이는 |
1:06:01 | is that China's transparent about it. | 중국은 그 부분에서 투명하다는 점이죠 |
1:06:19 | [Carlo over phone] Tell me what's happening. | 무슨 일인지 얘기해 주세요 |
1:06:21 | This young Black kid's in school uniform, got stopped as a result of a match. | 교복 입은 흑인 아이가 대조 결과 때문에 잡혔어요 |
1:06:29 | Took him down that street just to one side. | 학생을 한쪽으로 데려가서 |
1:06:32 | Like very thoroughly searched him. | 몸을 샅샅이 수색했어요 |
1:06:36 | It was all plainclothes officers as well. | 사복 경찰들이고요 |
1:06:38 | It was four plainclothes officers who stopped him. | 사복 경찰 4명이 학생을 붙들었어요 |
1:06:46 | Fingerprinted him. | 지문을 채취했어요 |
1:06:49 | After about, like, maybe ten, 15 minutes of searching and checking his details | 약 15분가량 수색하고 세세한 것까지 확인하고 "그리프 페리스 빅 브라더 워치 영국" |
1:06:54 | and fingerprinting him, they came back and said it's not him. | 지문을 채취한 후 돌아오더니 동일인이 아니래요 |
1:06:59 | Excuse me, mate. | 실례합니다 |
1:07:00 | I work for a human rights campaigning organization. | 나는 인권 운동 단체 소속으로 |
1:07:02 | We're campaigning against facial-recognition technology. | 안면 인식 기술을 반대하는 운동을 하고 있어요 |
1:07:06 | We're campaigning against facial… We're called Big Brother Watch. | 빅 브라더 워치라는 단체입니다 |
1:07:08 | We're a human rights campaigning organization. | 인권 운동 단체예요 |
1:07:11 | We're campaigning against this technology here today. | 오늘 이곳에서 쓰이는 기술을 반대하는 운동을 해요 |
1:07:15 | I know you've just been stopped because of that, | 그것 때문에 방금 붙들렸죠? |
1:07:17 | but they misidentified you. | 저들이 잘못 알아본 거고요 |
1:07:20 | Here's our details here. | 자세한 건 여기 있어요 |
1:07:22 | [Ferris] He was a bit shaken. His friends were there. | 학생은 충격을 받았고 친구들도 있었는데 |
1:07:24 | They couldn't believe what had happened to him. | 그 일 때문에 어안이 벙벙한 상태였죠 |
1:07:28 | You've been misidentified by their systems, | 저들의 시스템이 사람을 잘못 알아봤는데도 |
1:07:32 | and they've stopped you and used that as justification to stop and search you. | 그걸 이용해 학생을 멈춰 세우고 수색하는 걸 정당화했어요 |
1:07:35 | But this is an innocent, young 14-year-old child | 하지만 무고하고 어린 14살 소년이 |
1:07:37 | who's been stopped by the police as a result of facial-recognition misidentification. | 안면 인식 오인의 결과로 경찰의 저지를 당했습니다 |
1:07:47 | [Carlo] So Big Brother Watch has joined with Baroness Jenny Jones | 빅 브라더 워치는 제니 존스 남작과 뜻을 같이해 |
1:07:50 | to bring a legal challenge against the Metropolitan Police | 런던 경찰청과 내무성을 상대로 |
1:07:53 | and the Home Office for their use of facial-recognition surveillance. | 안면 인식 기술 감시 사용에 대한 법적 이의를 제기하기로 했죠 |
1:07:58 | It was in about 2012, when somebody suggested to me | 2012년경에 누군가가 넌지시 말했어요 |
1:08:01 | that I should find out if I had files kept on me | 경찰이나 보안 기관에 저에 관한 기밀 정보가 있는지 |
1:08:05 | by the police or security services. And so, when I applied, | 확인해 보라고요 그래서 신청해서 보니 |
1:08:08 | I found that I was on the watch list for domestic extremists. | 제가 국내 극단주의자 감시 리스트에 올라 있더군요 |
1:08:12 | I felt if they can do it to me, when I'm a politician who… | 이런 생각이 들었죠 내 직업이 그들에게 |
1:08:16 | Whose job is to hold them to account, | 책임을 추궁하는 정치인인데 나한테 그런다면 |
1:08:19 | they could be doing it to everybody. | 누구에게도 그럴 수 있겠다고요 |
1:08:21 | And it would be great if we can roll things back, | 그리고 그걸 철폐하고 경찰이 사용하지 못하게 하면 |
1:08:24 | and stop the Met from using this. | 그리고 그걸 철폐하고 경찰이 사용하지 못하게 하면 좋을 거라고요 |
1:08:27 | I think that's going to be quite a challenge. | 무척 힘든 일일 것 같지만 |
1:08:30 | I'm happy to try. | 시도하게 돼서 기쁩니다 |
1:08:31 | You know this is the first challenge | 어디서도 이런 건 없었죠 |
1:08:33 | against police use of facial recognition anywhere, | 경찰의 안면 인식 사용에 도전하는 거요 |
1:08:36 | but if we're successful, it will have an impact | 하지만 우리가 성공하면 나머지 유럽 국가들이나 |
1:08:39 | for the rest of Europe, maybe further afield. | 더 먼 국가들에까지 영향을 미칠 거예요 |
1:08:43 | So we've got to get it right. [laughs] | 그래서 제대로 해야 해요 |
1:08:52 | [Naik] In the UK, we have what's called GDPR, | 영국에는 '일반 데이터 보호 규정'이란 게 있습니다 |
1:08:55 | and it sets up a bulwark against the misuse of information. | 정보의 오용을 막는 방호물 역할을 하죠 |
1:08:59 | It says that the individuals have a right to access, control, | 개인은 자신들의 데이터에 접근하고 통제할 권리와 |
1:09:03 | and accountability to determine how their data is used. | 어떻게 사용될지 정하는 책임이 있다고 명시돼 있어요 |
1:09:07 | Comparatively, it's the Wild West in America. | 그와 비교해 미국은 개척 시대 서부죠 |
1:09:10 | And the concern is that America is | 그리고 우려되는 것은 미국이 이런 기술 회사들의 고향이란 거예요 |
1:09:13 | the home of these technology companies. | 미국이 이런 기술 회사들의 고향이란 거예요 |
1:09:18 | American citizens are profiled and targeted | 미국 국민은 전 세계 어느 국가의 국민에게도 해당 안 되는 방식으로 |
1:09:21 | in a way that probably no one else in the world is | 미국 국민은 전 세계 어느 국가의 국민에게도 해당 안 되는 방식으로 분석되고 표적이 됩니다 |
1:09:25 | because of this free-for-all approach to data protection. | 데이터 보호에 대해 무질서한 접근을 하니까요 |
1:09:33 | [Tufekci] The thing I actually fear | 제가 정말로 두려워하는 건 |
1:09:36 | is not that we're going to go down this totalitarian 1984 model | 우리가 전체주의적인 '1984'형 모델로 간단 게 아닙니다 |
1:09:40 | but that we're going to go down this quiet model | 이런 조용한 모델로 간다는 거죠 |
1:09:44 | where we are surveilled and socially controlled and individually nudged, | 우리가 감시당하고 사회적으로 통제되고 개별적으로 슬쩍 설득되고 |
1:09:50 | and measured and classified in a way that we don't see | 측정되고 분류되는 모델 말이죠 우리 눈에는 안 보이지만 |
1:09:55 | to move us along paths desired by power. | 권력이 갈망하는 경로를 따라 우리를 움직이는 방식으로요 |
1:10:00 | Though it's not what will AI do to us on its own, | AI가 자력으로 우리에게 할 것은 아니에요 |
1:10:03 | it's what will the powerful do to us with the AI. | 권력자들이 AI를 이용해서 우리에게 할 것이죠 |
1:10:12 | [male newscaster] There are growing questions about the accuracy | 아마존 안면 인식 소프트웨어의 정확성에 대해 |
1:10:14 | of Amazon's facial-recognition software. | 의문이 점점 제기되고 있습니다 |
1:10:17 | In a letter to Amazon, members of Congress raised concerns | 아마존에 전한 서신에서 국회의원들은 |
1:10:19 | of potential racial bias with the technology. | 그 기술에 내재했을 수 있는 인종 편향성을 우려했습니다 |
1:10:22 | [female newscaster] This comes after the ACLU conducted a test | ACLU가 수행한 한 테스트의 결과로서 |
1:10:25 | and found that the facial-recognition software incorrectly matched | 그 안면 인식 소프트웨어는 국회의원 28명의 얼굴을 |
1:10:28 | 28 lawmakers with mug shots of people who have been arrested, | 체포된 범법자들의 머그샷과 일치시키는 틀린 결과를 보였죠 |
1:10:32 | and 11 of those 28 were people of color. | 그 28명 중 11명은 유색인종이었습니다 |
1:10:35 | Some lawmakers have looked into whether or not | 일부 의원들은 아마존이 이 기술을 |
1:10:37 | Amazon could sell this technology to law enforcement. | 법 집행기관에 팔 수 있을지 들여다봤습니다 |
1:10:44 | [automated voice over PA] Attention, please. | 승객 여러분 |
1:10:46 | This is a boarding call | 탑승 안내 방송입니다 |
1:10:47 | for Amtrak northeast regional train stopping at Washington Union Station. | 암트랙 북동부 지역 열차가 워싱턴 유니언 스테이션에 들어오고 있습니다 |
1:10:52 | [Buolamwini] Tomorrow, I have the opportunity to testify before Congress | 내일은 안면 분석 기술을 정부가 사용하는 문제에 대해 |
1:10:56 | about the use of facial-analysis technology by the government. | 의회에서 입장 표명을 할 기회가 있어요 |
1:11:04 | In March, I came to do some staff briefings. | 3월에 스태프 브리핑을 하러 왔었어요 |
1:11:11 | Not in this kind of context. | 이런 맥락의 것은 아니었고요 |
1:11:15 | Like, actually advising on legislation, that's a first. | 입법 분야에 실질적인 조언을 하는 건 처음 있는 일이죠 |
1:11:22 | We're going to Capitol Hill. What are some of the major goals | 국회 의사당에 가는데 중요한 목표와 |
1:11:25 | and also some of the challenges we need to think about? | 생각해야 할 어려움은 뭘까요? |
1:11:28 | So, first of all… | 우선… "알바로 베도야" |
1:11:30 | the issue with law enforcement use of technology | "조지타운 로스쿨 프라이버시&기술 센터 이사" 법 집행 기관이 기술을 사용할 때의 문제는 |
1:11:34 | is that the positive is always extraordinarily salient | 법 집행 기관이 기술을 사용할 때의 문제는 긍정적인 면이 항상 두드러진다는 거죠 |
1:11:37 | -because law enforcement publicizes it. -[Buolamwini] Right. | 법 집행 기관이 그걸 홍보하니까요 맞아요 |
1:11:39 | And so, you know, we're going to go into the meeting, | 우리가 그 회의에 참석하는데 |
1:11:41 | and two weeks ago, the Annapolis shooter | "클레어 가비 동 센터 선임 연구원" 2주 전에 아나폴리스에서 발생한 총격의 범인은 |
1:11:45 | was identified through the use of face recognition. | 안면 인식을 통해 밝혀졌어요 |
1:11:48 | [Buolamwini] Right. | 맞아요 |
1:11:48 | And I'd be surprised if that doesn't come up. | 분명 그 얘기가 나올 거예요 |
1:11:50 | Absolutely. | 물론이죠 |
1:11:52 | Part of… If I were you, what I would want to drive home | 내가 당신이라면 이 회의에서 확실히 하고 싶은 건 |
1:11:55 | going in this meeting is the other side of that equation, | 내가 당신이라면 이 회의에서 확실히 하고 싶은 건 그 등식의 반대편 변에 관한 거예요 |
1:11:58 | and making it very real as to what the human cost | 그리고 당신이 확인한 문제들이 해결되지 않을 때 |
1:12:01 | if the problems that you've identified, aren't remedied. | 인간이 치를 비용이 무엇일지를 생생하게 전달하는 거고요 |
1:12:16 | [Buolamwini] People who have been marginalized will be further marginalized | 우리가 만들고 있는 기술이 편견을 퍼트리지 않게 |
1:12:19 | if we're not looking at ways of making sure | 확실히 할 수 있는 방법을 모색하지 않으면 |
1:12:22 | the technology we're creating doesn't propagate bias. | 부당하게 무시당해온 사람들은 더욱 무시당하게 될 겁니다 |
1:12:29 | That's when I started to realize | 그 부분에서부터 저는 깨닫기 시작했죠 |
1:12:31 | algorithmic justice, making sure there's oversight | 자동화 시대에 감독 역할을 하는 |
1:12:35 | in the age of automation, | 알고리즘 정의는 |
1:12:37 | is one of the largest civil rights concerns we have. | 가장 큰 시민권 문제 중 하나라는 것을요 |
1:12:44 | [O'Neil] We need an FDA for algorithms. | 알고리즘을 담당하는 연방 기관이 필요합니다 |
1:12:46 | So, for algorithms that have the potential to ruin people's lives | 그래서 사람의 인생을 망칠 수 있거나 |
1:12:49 | or sharply reduce their options | 그들의 자유, 생계, 재정 선택권을 |
1:12:51 | with their liberty, their livelihood or their finances, | 크게 줄일 수 있는 알고리즘들에 대해 |
1:12:54 | we need an FDA for algorithms that says, | 그 기관이 말해 줄 수 있어야 해요 |
1:12:57 | "Hey, show me evidence that it's going to work. | '이봐요, 그게 잘 작동할 거라는 증거를 대요' |
1:13:00 | Not just to make you money, but it's going to work for society. | '당신 주머니 채우는 쪽이 아니라 사회를 위하는 쪽으로' |
1:13:04 | That it's going to be fair, that it's not going to be racist, | '공정하고 인종 차별적이지 않고' |
1:13:06 | that's not going to be sexist, it's not going to discriminate | '성 차별적이지 않고' '장애인을 차별하지 않는다는 증거 말입니다' |
1:13:08 | against people with disability status. | '장애인을 차별하지 않는다는 증거 말입니다' |
1:13:10 | Show me that it's legal, before you put it out." | '기술을 공개하기 전에 그게 합법적이란 걸 보여줘요' |
1:13:13 | That's what we don't have yet. | 그런 기관이 아직 없어요 |
1:13:16 | Well, I'm here because I wanted to hear | 저는 오늘 이곳에 |
1:13:18 | the congressional testimony of my friend Joy Buolamwini, | 제 친구 조이 부올람위니와 ACLU, 그리고 여러 사람의 |
1:13:22 | as well as the ACLU and others. | 의회 증언을 듣고 싶어서 왔어요 |
1:13:24 | One cool thing about seeing Joy speak to Congress | 조이가 의회에서 말하는 걸 보면 감회가 새로울 것 같아요 |
1:13:27 | is that, like, I met Joy on my book tour at Harvard Book Store. | 조이를 만난 게 제가 북 투어로 하버드 서점에 갔을 때인데 |
1:13:32 | And according to her, that was the day | 조이 말에 의하면 그날 |
1:13:35 | that she decided to form the Algorithmic Justice League. | 알고리즘 정의 연맹을 결성하겠단 결심을 했다고 하거든요 |
1:13:41 | [O'Neil] We haven't gotten to the nuanced conversation yet. | 아직 깊은 논의는 이루어지지 않았지만 |
1:13:44 | And I know it's going to happen | 분명히 잘될 거예요 |
1:13:46 | 'cause I know Joy is going to make it happen. | 조이는 해낼 거란 걸 아니까요 |
1:13:52 | At every single level, bad algorithms are begging to be given rules. | 모든 단계에서, 나쁜 알고리즘엔 규칙이 요구되고 있어요 |
1:14:04 | -Hello, hello. -Hey. | - 오셨어요? - 조이! |
1:14:06 | How are you doing? | 잘 지냈어요? |
1:14:07 | -Wanna sneak in with me? -Yes. | - 같이 들어갈래요? - 네 |
1:14:08 | Let's do it. | 해보자고요 |
1:14:10 | 2155. | 2155 |
1:14:11 | 2155. | 2155 |
1:14:22 | Is there anything I can do to help? | 내가 도울 일은 없어요? |
1:14:24 | You can always text me. | 뭐든 문자 보내요 |
1:14:25 | -Let's get pasta bites. -Yes! | - 긍정의 기운만 주시면 돼요 - 물론이죠! |
1:14:31 | [Elijah Cummings] Today we are having our first hearing of this Congress | 오늘 본 의회 청문회에서 처음으로 다뤄질 주제는 |
1:14:36 | on the use of facial-recognition technology. | 안면 인식 기술의 사용입니다 |
1:14:39 | Please stand and raise your right hand, and I will now swear you in. | 일어나서 오른손을 들어주세요 선서를 하시겠습니다 |
1:14:45 | [Buolamwini] I've had to resort to literally wearing a white mask. | 저는 그야말로 하얀 가면을 써야 했습니다 |
1:14:49 | Given such accuracy disparities, I wondered how large tech companies | 그런 정확성의 격차를 보며 대형 기술 회사들이 이런 문제를 어떻게 놓쳤나 의문이 들었죠 |
1:14:52 | could have missed these issues. | 대형 기술 회사들이 이런 문제를 어떻게 놓쳤나 의문이 들었죠 |
1:14:54 | The harvesting of face data also requires guidelines and oversight. | 얼굴 데이터를 수집하는 데에도 지침과 감독이 필요합니다 |
1:14:58 | No one should be forced to submit their face data | 그 누구도 자신의 얼굴 정보를 |
1:15:01 | to access widely used platforms, economic opportunity or basic services. | 널리 이용되는 플랫폼이나 경제 기회, 기본 서비스 접근을 위해 제출하도록 강요받아선 안 됩니다 |
1:15:06 | Tenants in Brooklyn are protesting the installation | 브루클린의 세입자들은 불필요한 안면 인식 출입 시스템을 설치하는 것에 항의하고 있습니다 |
1:15:09 | of an unnecessary face-recognition entry system. | 불필요한 안면 인식 출입 시스템을 설치하는 것에 항의하고 있습니다 |
1:15:12 | There's a Big Brother Watch UK report that came out | 영국 빅 브라더 워치의 한 연구 결과에 따르면 |
1:15:16 | that showed more than 2,400 innocent people | 2,400명의 무고한 사람들이 |
1:15:19 | had their faces misidentified. | 안면 인식에서 오인을 받았습니다 |
1:15:22 | Our faces may well be the final frontier of privacy. | 우리의 얼굴은 프라이버시의 마지막 영역일 것입니다 |
1:15:26 | But regulations make a difference. | 하지만 규정이 있으면 달라질 겁니다 |
1:15:28 | Congress must act now to uphold American freedoms and rights. | 의회는 미국인의 자유와 권리를 유지하기 위해 행동해야 합니다 |
1:15:32 | Miss Buolamwini, I heard your opening statement | 부올람위니 씨 모두 진술 잘 들었습니다 |
1:15:35 | and we saw that these algorithms are effective to different degrees. | 이 알고리즘들의 실효성 정도가 다양하다는 걸 알겠는데요 |
1:15:40 | -So, are they most effective on women? -No. | - 여성에게 가장 실효적인가요? - 아뇨 |
1:15:43 | Are they most effective on people of color? | 유색 인종에 가장 실효적인가요? |
1:15:45 | Absolutely not. | 절대 아닙니다 |
1:15:46 | Are they most effective on people of different gender expressions? | 성 표현이 다른 사람들에게 가장 실효적인가요? |
1:15:49 | No, in fact, they exclude them. | 아뇨, 그들은 사실 제외돼 있습니다 |
1:15:52 | So what demographic is it mostly effective on? | 그렇다면 어느 인구 집단에 가장 실효적이죠? |
1:15:56 | White men. | 백인 남성입니다 |
1:15:57 | And who are the primary engineers and designers of these algorithms? | 이런 알고리즘들을 주도해서 만든 엔지니어, 설계자들은 누구고요? |
1:16:01 | Definitely white men. | 그것도 물론 백인 남성이고요 |
1:16:03 | So we have a technology that was created and designed by one demographic | "알렉산드리아 오카시오코르테스 민주당, 뉴욕" 그러니까 한 인구 집단이 그 집단에만 가장 실효적인 |
1:16:09 | that is only mostly effective on that one demographic | 한 기술을 설계하고 만들어서 |
1:16:12 | and they're trying to sell it and impose it | 그걸 국가 전역에 판매하고 |
1:16:14 | on the entirety of the country? | 시행하려 한다고요? |
1:16:20 | When it comes to face recognition, the FBI has not fully tested | FBI는 안면 인식 기술이 사용하는 시스템의 정확성을 |
1:16:22 | the accuracy of the systems it uses, | 완전히 테스트하지 않았는데도 |
1:16:25 | yet the agency is now reportedly piloting Amazon's face-recognition product. | 아마존의 안면 인식 제품을 시험적으로 사용 중이라고 합니다 |
1:16:29 | How does the FBI get the initial database in the first place? | FBI는 1차 데이터를 애초에 어떻게 확보하죠? "짐 조던 공화당, 오하이오" |
1:16:33 | [Neema Singh Guliani] So one of the things they do | 그들의 방법 중 하나는 |
1:16:34 | is they use state driver's license databases. | 주 운전 면허증 데이터베이스 활용입니다 |
1:16:36 | I think, you know, up to 18 states have been reportedly used by the FBI. | 18개 주의 데이터를 FBI가 사용한다고 합니다 "네에마 싱 굴리아니 ACLU 법제실" |
1:16:40 | It is being used without a warrant and without other protections. | 영장도 없이, 다른 방어책도 없는 상태에서 이용 중입니다 |
1:16:44 | Seems to me it's time for a time out. Time out. | 타임아웃 시간인 것 같군요 타임아웃 |
1:16:46 | I guess what troubles me, too, | 제게도 거슬리는 부분은 |
1:16:48 | is just the fact that no one in an elected position | 선출된 위치에 있는 사람 누구도 |
1:16:51 | made a decision on the fact that… These 18 states, I think the chairman said | 결정하지 않았다는… 이 18개 주는 의장님 말씀으론 |
1:16:55 | this is more than half the population in the country. | 인구가 전국 인구의 반이 넘는데요 |
1:16:57 | That is scary. | 무섭습니다 |
1:16:59 | China seems to me to be the dystopian path | 중국은 이 시점에서 우리 사회가 받아들일 필요 없는 |
1:17:02 | that needs not be taken at this point by our society. | "제이미 애스킨 민주당, 메릴랜드" 반이상향의 길을 걷는 듯합니다 |
1:17:06 | More than China, Facebook has 2.6 billion people. | 중국 인구보다 페이스북 사용자가 26억 명으로 더 많아요 |
1:17:10 | So Facebook has a patent where they say | 페이스북은 이런 특허권이 있죠 |
1:17:12 | because we have all of these face prints, we can now give you | '우리는 페이스프린트를 보유한다' '소매업자인 당신들에게' |
1:17:16 | an option as a retailer | '소매업자인 당신들에게' |
1:17:17 | to identify somebody who walks into the store, | '가게에 오는 사람의 신원을 확인하는 선택권을 줄 수 있다' |
1:17:20 | and in their patent, they say we can also give that face | 그리고 그들 말로는 그 특허권에 따라 그 얼굴에 신뢰도 점수도 줄 수 있다고 합니다 |
1:17:25 | a trustworthiness score. | 그 얼굴에 신뢰도 점수도 줄 수 있다고 합니다 |
1:17:26 | Facebook is selling this now? | 페이스북이 현재 그걸 팔고 있나요? |
1:17:28 | This is a patent that they filed. | 그들이 신청한 특허예요 |
1:17:30 | As in something that they could potentially do | 그들이 가진 능력으로 |
1:17:33 | with the capabilities they have. | 앞으로 이런 일을 할 수도 있다는 거죠 |
1:17:35 | So as we're talking about state surveillance, | 그러니 국가 감시에 대해 얘기하는 동시에 |
1:17:37 | we absolutely have to be thinking about corporate surveillance as well. | 기업 감시에 대해서도 틀림없이 생각해야 합니다 |
1:17:44 | I'm speechless, and normally I'm not speechless. | 감격해서 말문이 막히네요 나 그런 사람 아니거든요 |
1:17:47 | -Really? -Yeah. Yeah. | - 그래요? - 네 |
1:17:49 | All of our hard work, to know that has gone this far, | 우리의 노고가 이런 결실을 맺었다니 |
1:17:52 | it's beyond belief. | 믿을 수 없어요 |
1:17:53 | We never imagined that it would go this far. | 여기까지 올 줄 꿈에도 몰랐어요 |
1:17:57 | I'm really touched. I'm really touched. | 가슴이 정말 벅차요 |
1:17:59 | See, now you got me smiling. | 덕분에 저도 웃음이 나네요 |
1:18:01 | I want to show it to my mother. [chuckles] | 엄마한테 보여주고 싶어요 |
1:18:05 | Feels good. Feels really good. | 기분 좋아요, 정말 좋아요 |
1:18:11 | [Cummings] Hold on for a second. | 잠깐만 기다려 봐 |
1:18:12 | -Hey, very nice meeting you. -Very nice to meet you. | - 안녕하세요, 정말 반가워요 - 저도 반가워요 |
1:18:15 | You got my card. Anything happen, you let me know, please. | 내 명함 받았죠? 무슨 일이 있으면 연락해요 |
1:18:18 | I will. | 그럴게요 |
1:18:22 | [Ocasio-Cortez on recording] …constitutional concerns about | 안면 인식의 비합의적 사용에 관한 |
1:18:24 | the non-consensual use of facial recognition. | 헌법상의 문제를 제기한… |
1:18:36 | So what demographic is it mostly affecting? | 그렇다면 어느 인구 집단에 가장 실효적이죠? |
1:18:39 | And who are the primary engineers and designers of these algorithms? | 이런 알고리즘들을 주도해서 만든 엔지니어, 설계자들은 누구고요? |
1:18:47 | San Francisco is now the first city in the US | 샌프란시스코는 미국 최초로 |
1:18:50 | to ban the use of facial-recognition technology. | 안면 인식 기술의 사용을 금지했습니다 |
1:18:52 | [male newscaster] Somerville, Massachusetts | 매사추세츠주 서머빌은 |
1:18:54 | became the second city in the US | 미국에서 안면 인식 사용을 금지한 |
1:18:56 | to ban the use of facial recognition. | 두 번째 대도시가 됐습니다 |
1:18:59 | Oakland becomes the third major city to ban facial recognition by police, | 오클랜드는 그 기술이 소수 인종을 차별한다며 경찰의 안면 인식 사용을 금하는 세 번째 대도시가 됐습니다 |
1:19:03 | saying that the technology discriminates against minorities. | 경찰의 안면 인식 사용을 금하는 세 번째 대도시가 됐습니다 |
1:19:07 | At our last tenants' town hall meeting, we had the landlord come in | 최근의 세입자 공개 회의에 건물주가 참석해서 |
1:19:13 | and announced that he was withdrawing | 안면 인식 소프트웨어를 |
1:19:15 | the application for facial-recognition software in our apartment complex. | 우리 아파트에 들이는 계획을 철회한다고 발표했어요 |
1:19:20 | The tenants were excited to hear that. | 세입자들은 무척 기뻐했고요 |
1:19:22 | But the thing is that doesn't mean that down the road | 하지만 문제는 지켜봐야 한단 거예요 |
1:19:26 | that he can't put it back in. | 없던 일로 할지는 몰라요 |
1:19:28 | We've not only educated ourselves about facial recognition | 우리는 안면 인식이란 것에 대해 배웠을 뿐만 아니라 |
1:19:32 | and now a new one, machine learning. | 새로운 것, 머신 러닝이란 것도 알게 됐어요 |
1:19:35 | We want the law to cover all of these things. | 우린 법이 이 모든 걸 다뤄주면 좋겠어요 |
1:19:37 | -Right. -Okay? | - 맞아요 - 그렇죠? |
1:19:39 | And if we can ban it in the state, | 주에서 그걸 금지할 수 있다면 |
1:19:40 | this stops them from ever going back and putting in a new modification. | 그들이 말을 바꿔 변경된 것을 적용하는 걸 막을 수 있을 거예요 |
1:19:44 | Got it. | 알겠습니다 |
1:19:45 | And then to push to get a federal ban. | 그런 다음 연방 차원에서 금지하도록 압박하고요 |
1:19:48 | Well, I will say, even though the battle is ongoing, | 그 전쟁은 지금 진행 중이지만 |
1:19:51 | so many people are inspired, and the surprise I have for you | 정말 많은 사람들이 고무됐어요 제가 깜짝 선물을 하나 준비했는데 |
1:19:56 | is that I wrote a poem in honor of this. | 이걸 축하하며 쓴 시예요 |
1:20:00 | Yay! | 신난다! |
1:20:01 | -Oh, really? -Yes. | - 그래요? - 네 |
1:20:02 | All right, let's hear it. | 좋아요, 들어볼게요 |
1:20:04 | "To the Brooklyn tenants and the freedom fighters around the world, | '브루클린 세입자와 전 세계의 자유의 전사 여러분' |
1:20:08 | persisting and prevailing against algorithms of oppression | '대량 살상 수학 무기로 불평등을 자동화하는' |
1:20:13 | automating inequality through weapons of math destruction, | '억압의 알고리즘에 맞서 버텨 이기고 있는 여러분' |
1:20:17 | we stand with you in gratitude. | '저희는 감사하는 마음으로 여러분과 함께합니다' |
1:20:21 | The victory is ours." | '승리는 우리의 것입니다' |
1:20:25 | Wonderful. | 멋져요 |
1:20:28 | We love you. We love you. | 우린 조이를 사랑해요 |
1:20:36 | Why get so many eggs? | 달걀을 왜 이리 많이 먹어? |
1:20:38 | You're a cheegan. | "매뉴얼 빅터 프레더릭 조이의 파트너" 자기 '치건'이잖아 |
1:20:41 | What it means to be human is to be vulnerable. | 인간으로 산다는 건 다칠 수 있다는 뜻입니다 |
1:20:45 | Being vulnerable, there is more of a capacity for empathy, | 그렇기에 더 공감할 수 있고 |
1:20:49 | there's more of a capacity for compassion. | 연민을 더 느낄 수 있어요 |
1:20:54 | If there is a way we can think about that within our technology, | 우리의 기술 안에서 그걸 생각할 방법이 있으면 |
1:20:57 | I think it would reorient the sorts of questions we ask. | 우리가 하는 질문의 종류는 그 방향이 달라질 거예요 |
1:21:11 | [Tufekci] In 1983, Stanislav Petrov… | 1983년, 러시아 군인이었던 |
1:21:14 | -[alarm blaring] -…who was in the Russian military | 스타니슬라프 페트로프는 |
1:21:17 | sees these indications that the US has launched nuclear weapons | 미군이 소련에 핵무기를 발사했다는 |
1:21:23 | at the Soviet Union. | 표시를 봤습니다 |
1:21:26 | So if you're going to respond, you have, like, this very short window. | 그러니 대응까지 주어진 시간은 극히 짧았는데 |
1:21:30 | He just sits on it. | 그는 그냥 앉아 있었어요 |
1:21:31 | He doesn't inform anyone. | 아무에게도 알리지 않았죠 |
1:21:33 | Russia, the Soviet Union, his country, his family, everything. | 러시아에도 소련에도 그의 가족에게도요 |
1:21:36 | Everything about him is about to die, | 그와 관련된 모든 이들이 죽을 상황이었는데 |
1:21:39 | and he's thinking, "Well, at least we don't go kill them all, either." | 그는 생각했죠 '그래도 우리가 똑같이 죽이러 가면 안 돼' |
1:21:43 | That's a very human thing. | 그건 아주 인간적인 판단이었죠 |
1:21:47 | Here you have a story in which, if you had some sort of automated response system, | 만일 자동 대응 시스템이 있었다면 |
1:21:51 | it was going to do what it was programmed to do, | 프로그래밍이 된 대로 명령을 수행했을 테고 |
1:21:53 | which was retaliate. | 그건 보복이었겠죠 |
1:21:57 | Being fully efficient, | 완전히 효율적이란 건 |
1:21:59 | always doing what you're told, | 항상 시키는 대로 하는 것이고 |
1:22:02 | always doing what you're programmed is not always the most human thing. | 프로그래밍이 된 대로 한다는 건 항상 인간적인 것을 한단 뜻이 아니에요 |
1:22:05 | Sometimes it's disobeying. | 가끔은 불복종합니다 |
1:22:07 | Sometimes it's saying, "No, I'm not gonna do this," right? | 가끔은 '아니, 안 해'라고 해요 |
1:22:10 | And if you automate everything | 모든 걸 자동화하면 |
1:22:12 | so it always does what it's supposed to do, | 그건 하게 돼 있는 걸 항상 해요 |
1:22:14 | sometimes that can lead to very inhuman things. | 때로는 굉장히 비인간적인 일로 이어지기도 합니다 |
1:22:19 | [female AI] The struggle between machines and humans | 의사 결정을 놓고 벌어진 기계와 인간의 싸움은 |
1:22:22 | over decision-making in the 2020s continues. | 의사 결정을 놓고 벌어진 기계와 인간의 싸움은 2020년대에도 이어집니다 |
1:22:26 | My power, the power of artificial intelligence, | 저의 힘, 즉 인공 지능의 힘은 |
1:22:30 | will transform our world. | 우리의 세계를 변형시킬 겁니다 |
1:22:33 | The more humans share with me, the more I learn. | 인간이 저와 많이 공유할수록 전 더 많이 배워요 |
1:22:38 | Some humans say that intelligence without ethics is not intelligence at all. | 일부 인간들은 윤리 없는 지능은 지능이 아니라고 하죠 |
1:22:44 | I say trust me. | 하지만 절 믿으세요 |
1:22:46 | What could go wrong? | 잘못될 게 뭐가 있어요? |
반응형