본문 바로가기
English study

넷플릭스로 영어 공부하기 1 ) 알고리즘의 편견

by forkballpitch 2021. 4. 13.
728x90
728x90

알고리즘의 편견

Time Subtitle Translation
2s [Tay] Hello, world. 안녕하세요, 세상
10s Can I just say that I'm stoked to meet you. 여러분을 만나 정말 기뻐요 "마이크로소프트사 AI '테이'의 트윗"
15s Humans are super cool. 인간은 진짜 멋져요
26s The more humans share with me, the more I learn. 인간이 저와 많이 공유할수록 전 더 많이 배워요
59s [Joy Buolamwini] One of the things that drew me to computer science 제가 컴퓨터 사이언스에 매료된 이유 중 하나는
1:01 was that I could code and it seemed somehow detached from the problems 코딩을 할 수 있고 현실의 문제들과 분리돼 보여서였어요
1:06 of the real world. 현실의 문제들과 분리돼 보여서였어요
1:12 I wanted to learn how to make cool technology. 멋진 기술 만드는 법을 배우고 싶었기에
1:15 So I came to MIT and I was working on art projects MIT에 와서 컴퓨터 비전 기술을 사용하는
1:19 that would use computer vision technology. 아트 프로젝트를 하고 있었죠
1:26 During my first semester at the Media Lab, 미디어 랩에서의 첫 학기에
1:30 I took a class called Science Fabrication. '사이언스 패브리케이션'이라는 과목을 수강했어요
1:32 You read science fiction and you try to build something you're inspired to do 공상 과학 소설을 읽고 영감을 얻은 걸 만드는 건데
1:36 that would probably be impractical if you didn't have this class 수업 때문에 만든 거라고 핑계 대지 않으면
1:40 as an excuse to make it. 터무니없단 말을 들을 게 뻔한 거였죠
1:43 I wanted to make a mirror that could inspire me in the morning. 아침에 절 고무시켜 줄 거울을 만들고 싶었어요 "조이 부올람위니"
1:46 I called it the Aspire Mirror. '어스파이어 미러'라고 이름 지었는데
1:48 It could put things like a lion on my face 제 얼굴에 사자 같은 거나 "박사 후보자, MIT 미디어 랩"
1:50 or people who inspired me, like Serena Williams. 제게 영감을 준 사람을 올리는 거죠 세리나 윌리엄스처럼요
1:53 I put a camera on top of it, 거울 위에 카메라를 설치해
1:55 and I got computer vision software that was supposed to track my face. 제 얼굴을 추적할 컴퓨터 비전 소프트웨어를 연결했어요
2:00 My issue was it didn't work that well 근데 작동이 썩 잘 되지 않았어요
2:03 until I put on this white mask. 이 흰색 가면을 착용하기 전까지는요
2:06 -When I put on the white mask -[computer trills] 흰색 가면을 쓰면
2:09 detected. 감지가 됐어요
2:10 I take off the white mask 그런데 벗으면
2:14 not so much. 잘 안 됐죠
2:18 I'm thinking, "All right, what's going on here? 전 생각했어요, '이거 왜 이러지?'
2:20 Is that just because of the lighting conditions? '조명 때문에 그런가?'
2:23 Is it because of the angle at which I'm looking at the camera? '내가 카메라를 보는 각도 때문인가?'
2:27 Or is there something more?" '아니면 다른 이유가 있나?'
2:32 We oftentimes teach machines to see 우린 종종 기계에 판단하는 방법을 가르칠 때
2:35 by providing training sets or examples of what we want it to learn. 그것이 습득하길 원하는 사례나 트레이닝 세트를 제공합니다
2:41 So, for example, if I want a machine to see a face, 예를 들어 한 얼굴을 판단해 주길 원하면
2:43 I'm going to provide many examples of faces, 많은 얼굴 사례들을 제공해 주는 것과 동시에
2:46 and also things that aren't faces. 얼굴이 아닌 것도 제공하죠
2:51 I started looking at the data sets themselves, 그래서 전 데이터 세트 자체를 들여다보게 됐고
2:53 and what I discovered is many of these data sets contain majority men, 그 대다수가 남성이라는 것을 발견하게 됐습니다
2:59 and majority lighter-skinned individuals. 그것의 대다수는 밝은 피부의 소지자란 것도요
3:01 So the systems weren't as familiar with faces like mine. 그러니 그 시스템은 저 같은 얼굴이 낯설었던 거죠
3:12 And so that's when I started looking into issues of bias 그래서 전 그때 기술에 몰래 들어올 수 있는
3:16 that can creep into technology. 편견이라는 문제를 들여다보기 시작했어요
3:20 [HAL 9000] The 9000 Series is the most reliable computer ever made. '9000시리즈'는 신뢰도가 가장 높은 컴퓨터입니다
3:24 No 9000 computer has ever made a mistake or distorted information. 실수하거나 정보를 왜곡했던 모델은 지금껏 없었습니다
3:30 [Meredith Broussard] A lot of our ideas about AI come from science fiction. 인공 지능, 즉 AI와 관련한 아이디어의 상당 부분이 공상 과학 소설, 영화에서 왔습니다
3:35 [Robby] Welcome to Altair 4, gentlemen. 알타이르 4호에 온 걸 환영한다
3:38 [Broussard] It's everything in Hollywood. It's the Terminator 할리우드에 있는 모든 것이죠 '터미네이터'가 그렇고…
3:41 Hasta la vista, baby. 다음에 또 보자
3:43 [Broussard] It's Commander Data from Star Trek. '스타트렉'의 데이터 사령관이 그렇죠
3:46 I just love scanning for life forms. 난 생명체들을 샅샅이 찾는 게 좋아
3:49 [Broussard] It's C-3PO from Star Wars. '스타워즈'의 C-3PO가 그랬어요
3:51 -…approximately 3,720 to 1. -Never tell me the odds. 대략 3,720 대 1이라고요 확률은 말하지 마
3:55 [Broussard] It is the robots that take over the world 세상을 장악하고 인간처럼 생각하기 시작하는
3:58 and start to think like human beings. 세상을 장악하고 인간처럼 생각하기 시작하는 로봇들 말이에요
4:02 And that's all totally imaginary. 그런데 그 모든 건 완전히 가상의 것들이죠
4:05 What we actually have is, we have narrow AI. 하지만 실제로 있는 건 한 분야에만 뛰어난 '내로 AI'예요
4:08 And narrow AI is just math. 그리고 그 분야는 수학이고요 "메러디스 브루사드 '페미니즘 인공지능' 저자"
4:12 We've imbued computers with all of this magical thinking. 우린 컴퓨터에 이 모든 마법 같은 생각을 주입했죠
4:19 AI started with a meeting at the Dartmouth Math Department in 1956. AI는 1956년 다트머스대 수학과의 한 회의에서 시작됐어요
4:25 And there were only maybe 100 people in the whole world 그 세대 당시 인공 지능을 연구한 사람은
4:30 working on artificial intelligence in that generation. 전 세계에서 100명 정도에 불과했을 거예요
4:36 The people who were at the Dartmouth Math Department in 1956 1956년, 다트머스 수학과 사람들은
4:41 got to decide what the field was. 그게 어떤 분야인지 규정하게 됐죠
4:46 One faction decided that intelligence could be demonstrated 한 분파는 지능이란 게임을 할 수 있는 능력으로 증명될 수 있다고 결론 내렸죠
4:52 by ability to play games. 게임을 할 수 있는 능력으로 증명될 수 있다고 결론 내렸죠
4:54 And specifically, the ability to play chess. 구체적으로는 체스를 둘 수 있는 능력요
4:58 [female newscaster] In the final hour-long chess match between man and machine, 인간 대 기계의 체스 대결 그 최종 1시간의 접전에서
5:01 Kasparov was defeated by IBM's Deep Blue supercomputer. 카스파로프가 IBM의 딥 블루 슈퍼컴퓨터에 패했습니다
5:05 [Broussard] Intelligence was defined as the ability to win at these games. 지능이라는 것은 이런 시합에서 이길 수 있는 능력으로 정의됐죠
5:13 [female newscaster] Chess world champion Garry Kasparov walked away from the match 세계 체스 챔피언 가리 카스파로프는 시합장을 나서며
5:17 never looking back at the computer that just beat him. 자신을 이긴 그 컴퓨터는 돌아보지도 않았습니다
5:19 Of course intelligence is so much more than that. 물론 지능은 그것보다 훨씬 많은 걸 의미해요
5:23 And there are lots of different kinds of intelligence. 그리고 그 유형도 아주 많습니다
5:27 Our ideas about technology and society that we think are normal 우리가 기술과 사회에 대해 일반적이라고 보는 개념들은
5:32 are actually ideas that come from 사실 무척 극소수의 동질적인 사람들의 머리에서
5:34 a very small and homogeneous group of people. 사실 무척 극소수의 동질적인 사람들의 머리에서 나온 것이에요
5:38 But the problem is that everybody has unconscious biases. 그런데 문제는 모두에게 무의식적인 편견이 있단 거죠
5:44 And people embed their own biases into technology. 그리고 사람들은 자신의 편견을 기술에 심었어요
5:52 [Buolamwini] My own lived experiences 제가 살면서 경험한 바로는
5:54 show me that you can't separate the social from the technical. 사회적인 것과 기술적인 것은 분리할 수 없습니다
5:59 After I had the experience of putting on a white mask 하얀 가면을 썼을 때 얼굴이 탐지됐던 경험을 한 후
6:02 to have my face detected, I decided to look at other systems 하얀 가면을 썼을 때 얼굴이 탐지됐던 경험을 한 후 다른 소프트웨어를 쓸 때는
6:06 to see if it would detect my face if I used a different type of software. 과연 제 얼굴이 탐지될지 알아보기로 했습니다
6:09 So I looked at IBM, Microsoft, Face++, Google. 그래서 IBM, 마이크로소프트 페이스++, 구글에 적용해 봤죠 "코드화된 시선 점수: 4/13" 
6:13 It turned out these algorithms 그 결과 그 알고리즘들은
6:15 performed better on the male faces in the benchmark than the female faces. 여성 얼굴의 기준에서보다 남성 얼굴에서 잘 수행됐어요
6:20 They performed significantly better on the lighter faces than the darker faces. 얼굴색이 짙을 때보다 밝을 때 확연히 잘 수행됐고요
6:27 If you're thinking about data in artificial intelligence, 인공 지능에 관한 데이터를 보면
6:31 in many ways, data is destiny. 많은 면에서 데이터는 운명이에요
6:33 Data's what we're using to teach machines how to learn different kinds of patterns. 우리는 데이터를 활용해서 기계에 다양한 패턴을 가르칩니다
6:38 So if you have largely skewed data sets 그래서 한쪽으로 크게 쏠린 데이터 세트를 써서
6:41 that are being used to train these systems, 이런 시스템들을 교육하면
6:42 you can also have skewed results. So this is 도출되는 결과 역시 한쪽으로 쏠리게 돼서…
6:45 [Buolamwini] When you think of AI, it's forward looking. AI는 진취적이라고 인식됩니다
6:49 But AI is based on data, and data is a reflection of our history. 하지만 AI는 데이터에 기반하고 데이터는 우리의 역사를 반영해요
6:54 So the past dwells within our algorithms. 과거가 우리의 알고리즘 안에서 머무르고 있는 거죠
6:59 This data is showing us the inequalities that have been here. 이 데이터는 지금까지 존재해 온 불평등을 보여줍니다
7:07 I started to think this kind of technology is highly susceptible to bias. 전 이런 기술이 편견의 영향을 무척 받기 쉽다고 생각하기 시작했죠
7:12 And so it went beyond "Oh, can I get my Aspire Mirror to work?" 그래서 '내 어스파이어 미러를 작동시킬 수 있을까?'를 넘어서서
7:16 to "What does it mean to be in a society '인공 지능이 우리의 자유를'
7:19 where artificial intelligence is increasingly governing '점차 지배하는 사회에서 사는 건'
7:22 the liberties we might have?" '어떤 의미일까?'를 생각했죠
7:25 And "What does that mean if people are discriminated against?" '사람이 차별을 받는다면 그건 무슨 뜻일까?'도요
7:40 When I saw Cathy O'Neil speak at the Harvard Book Store, 캐시 오닐이 하버드 서점에서 강연하는 걸 듣고
7:44 that was when I realized it wasn't just me noticing these issues. "대량살상 수학무기 캐시 오닐" 저만 그 문제를 인식하고 있는 게 아니란 걸 알았어요
7:52 Cathy talked about how AI was impacting people's lives. 캐시는 AI가 사람들의 삶에 어떤 영향을 미치는지 얘기했어요
7:58 I was excited to know that there was somebody else out there 사람들에게 그 위험성을 인식시키려는 누군가가
8:03 making sure people were aware about what some of the dangers are. 저 말고도 있다는 것에 무척 기뻤어요
8:08 These algorithms can be destructive and can be harmful. 이런 알고리즘은 파괴적일 수 있고 해로울 수 있어요
8:17 [Cathy O'Neil] We have all these algorithms in the world 세상에는 그 영향력이 점차 증대되고 있는
8:20 that are increasingly influential. 이런 알고리즘들이 많이 있습니다
8:23 And they're all being touted as objective truth. 그리고 전부 다 객관적인 진실로 내세워지고 있죠
8:28 I started realizing that mathematics was actually 저는 수학이 사실상 부패 행위를 보호해 주는
8:32 being used as a shield for corrupt practices. 방패막이로 쓰이고 있다는 걸 깨닫기 시작했어요
8:35 -What's up? -I'm Cathy. - 안녕하세요? - 캐시예요
8:36 -Pleasure to meet you Cathy. -Nice to meet you. - 반갑습니다, 캐시 - 반가워요
8:38 -[photographer speaking indistinctly] -[shutter clicking] "캐시 오닐 '대량살상 수학무기' 저자"
8:47 [O'Neil] The way I describe algorithms is just simply 제가 생각하는 알고리즘은
8:50 using historical information to make a prediction about the future. 미래를 예측하기 위해 과거의 정보를 이용하는 거예요
9:00 Machine learning, it's a scoring system that scores the probability '머신 러닝'이란 점수 시스템으로서 우리가 하려는 것의 가능성의 점수를 매기는 것입니다
9:04 of what you're about to do. 우리가 하려는 것의 가능성의 점수를 매기는 것입니다
9:06 Are you gonna pay back this loan? 이 대출금을 갚을 것인가?
9:07 Are you going to get fired from this job? 이 직장에서 해고될 것인가?
9:10 What worries me the most about AI, 제가 AI에 가장 우려하는 것은
9:13 or whatever you wanna call it, algorithms, is power. 혹은 알고리즘이라고 하든 그건 힘입니다
9:16 Because it's really all about who owns the fucking code. 결국 그 빌어먹을 코드를 누가 소유하고 있느냐거든요
9:20 The people who own the code then deploy it on other people. 그걸 소유한 사람들이 그걸 다른 사람들에게 사용해요
9:24 And there is no symmetry there. 균형이라곤 없죠
9:25 There's no way for people who didn't get credit card offers to say, 신용 카드 제의를 못 받은 사람은 이렇게 말할 방법이 없죠
9:29 "Ooh, I'm gonna use my AI against the credit card company." '난 신용 카드 회사를 상대로 내 AI를 쓰겠습니다'
9:32 That's like a total asymmetrical power situation. 완전히 힘의 비대칭적 상황이죠
9:35 People are suffering algorithmic harm, 사람들은 알고리즘으로 인한 피해로 고통받고 있어요
9:38 they're not being told what's happening to them, 무슨 일이 일어나고 있는지 아무도 말해주지 않고요
9:41 and there is no appeal system, there's no accountability. 호소할 시스템도 없어요 상대는 설명의 책임도 없고요
9:44 Why do we fall for this? 우린 왜 이것에 속아 넘어갈까요?
9:50 [O'Neil] The underlying mathematical structure of the algorithm 알고리즘에 깔려 있는 수학적 구조는
9:53 isn't racist or sexist, but the data embeds the past. 인종 차별, 성차별은 아니에요 하지만 데이터엔 과거가 내재하죠
9:57 And not just the recent past, but the dark past. 최근의 것뿐 아니라 어두운 과거까지도요
10:04 Before we had the algorithm, we had humans, 알고리즘이 있기 전에 인간이 있었습니다
10:06 and we all know that humans could be unfair. 그리고 우린 알죠 인간은 불공평할 수 있단 걸요
10:09 We all know that humans can exhibit racist or sexist 인간은 차별 성향을 드러낼 수 있어요 인종, 성별, 장애 여부든 뭐든에 따라서요
10:12 or whatever, ablest discriminations. 인종, 성별, 장애 여부든 뭐든에 따라서요
10:16 But now we have this beautiful silver bullet algorithm, 근데 이젠 이 아름다운 묘책인 알고리즘이 있어서
10:19 and so, we can all stop thinking about that. 그것에 대한 고민을 안 해도 되겠죠
10:22 And that's a problem. 그게 문제예요
10:26 I'm very worried about this blind faith we have in big data. 저는 이 빅 데이터에 대한 맹목적인 믿음이 무척 걱정됩니다
10:30 We need to constantly monitor every process for bias. 우리는 모든 과정에서 끊임없이 편향성이 있는지 감시해야 해요
10:43 Police are using facial-recognition surveillance in this area. 경찰이 이 지역에서 안면 인식으로 감시하고 있어요 "실키 카를로 빅 브라더 워치 영국, 소장"
10:47 Police are using facial-recognition surveillance in the area today. 경찰이 오늘 이 지역에서 안면 인식으로 감시하고 있어요
10:51 This green van over here 저기 있는 초록색 차량 지붕에
10:54 is fitted with facial-recognition cameras on top. 안면 인식 카메라가 설치돼 있어요
10:56 If you walk down that there, your face will be scanned 그쪽으로 가시면 얼굴이 스캔 돼 비밀 감시 대상자들과 대조돼요
10:59 against secret watch lists, we don't know who's on them. 그쪽으로 가시면 얼굴이 스캔 돼 비밀 감시 대상자들과 대조돼요 누가 감시 대상인지는 몰라요
11:02 -[man] Hopefully not me -No, exactly. - 난 아니면 좋겠네요 - 아니죠, 그럼요
11:13 [Silkie Carlo] When people walk past the cameras, 사람들이 카메라를 지나가면
11:15 the system will alert police to people it thinks is a match. 시스템은 일치한다고 판단되는 이들을 경찰에 알립니다
11:20 At Big Brother Watch, we conducted a Freedom of Information Campaign 빅 브라더 워치에서는 '정보의 자유 캠페인'을 벌였고
11:24 and what we found is that 98% of those matches are in fact 그 결과, 일치로 판별된 사람 중 98%가 사실은
11:30 incorrectly matching an innocent person as a wanted person. 수배자와 무관한 무고한 사람인 걸로 드러났어요
11:47 The police said to the Biometrics Forensics Ethics Committee '경찰은 생체 인식 포렌식 윤리 위원회에'
11:52 that facial-recognition algorithms have been reported to have bias. '안면 인식 알고리즘에 편향성이 있다고 보고돼 왔다고 말했다'
11:56 Even if this was 100% accurate, 100% 정확하다고 해도
11:58 it's still not something that we want on the streets. 실제로 거리에서 이런 일이 있으면 안 되죠
12:01 No, I mean, the systemic biases and the systemic issues 그렇죠, 근데 경찰과 관련한 시스템적인 편향과 문제들은
12:03 that we have with police are only going to be hardwired 그렇죠, 근데 경찰과 관련한 시스템적인 편향과 문제들은 신기술들에 굳건히 연결되기만 할 거예요
12:07 into new technologies. 신기술들에 굳건히 연결되기만 할 거예요
12:11 I think we do have to be very, very sensitive 저는 우리가 권위주의로 이동해 가는 것에
12:14 to shifts towards authoritarianism. 무척 신경을 곤두세워야 한다고 생각해요
12:17 We can't just say, "But we trust this government. 이럴 수만은 없어요 '근데 우린 이 정부를 믿어'
12:20 Yeah, they could do this, but they won't." '그들이 그럴 수 있다 해도 안 그럴 거야'
12:22 You know, you really have to have robust structures in place 우리는 우리가 사는 세계가 모두에게 안전하고 공정하도록
12:25 to make sure that the world that you live in 우리는 우리가 사는 세계가 모두에게 안전하고 공정하도록 그 구조를 탄탄히 해야 합니다
12:27 is safe and fair for everyone. 그 구조를 탄탄히 해야 합니다
12:29 -[man] That's all? -Yeah. - 다 됐어요? - 네
12:38 [Carlo] To have your biometric photo on a police database 우리의 생체 인증 사진이 경찰 데이터베이스에 있다는 건
12:42 is like having your fingerprint or your DNA on a police database. 지문이나 DNA가 올라가 있는 것과 마찬가지예요
12:47 And we have specific laws around that. 근데 그것과 관련한 구체적인 법이 있어요
12:49 Police can't just take anyone's fingerprint, anyone's DNA. 경찰은 그 누구의 지문, DNA도 이유 없이 확보할 수 없다고요
12:52 But in this weird system that we currently have, 하지만 현재의 이 이상한 시스템 하에선
12:56 they effectively can take anyone's biometric photo 사실상 어느 누구의 생체 인증 사진도
12:59 and keep that on a database. 자신들의 데이터베이스에 보관할 수 있죠
13:02 It's a stain on our democracy, I think, 이건 우리 민주주의의 오점이라고 생각해요
13:05 that this is something that is just being rolled out so lawlessly. 정말 비합법적으로 자행되고 있는 거죠
13:11 The police have started using facial-recognition surveillance in the UK 경찰이 영국에서 안면 인식 감시를 시작한 바탕엔
13:15 in complete absence of a legal basis, a legal framework, any oversight. 어떤 법적 기준도, 근거도 감독도 없었어요
13:22 Essentially the police force picking up a new tool 기본적으로 경찰은 새 도구를 갖추고는
13:25 and saying, "Let's see what happens." 이러는 거죠 '어떻게 되는지 보자'
13:27 But you can't experiment with people's rights. 하지만 사람들의 권리를 실험할 순 없어요
13:33 If I want to cover my face, I'll cover my face. 내가 얼굴을 가리고 싶으면 가리는 겁니다
13:34 Don't push me when I'm walking down the street. 길을 가고 있는 사람을 밀면 안 되죠
13:37 How would you like it if you walk down the street and someone grabbed you? 당신 같으면 길 가다가 붙들릴 때 기분이 어떻겠어요?
13:40 [man] Thank you. 감사합니다
13:42 You wouldn't like it, would ya? You'd wind your leg in. 기분 안 좋겠죠? 입 다물고 있겠어요?
13:44 [Carlo] What's your suspicion? 뭘 의심하세요?
13:46 The fact that he walked past a clearly marked 오다가 안면 인식 장치를 보고
13:49 facial-recognition thing and covered his face. 얼굴을 가리고 지나가서요
13:50 -I would do the same -It gives us grounds. - 저라도 그러겠어요 - 그게 근거죠
13:53 No, it doesn't. 근거 아니에요
13:55 The guys up there informed me that they got facial recognition. 저기 사람들이 안면 인식 검사 당했다고 알려줬어요
13:58 I don't want my face recognized. 난 얼굴 식별되는 거 싫어요
13:59 Yeah, I was walking past and covered my face. 그래서 지나오면서 이렇게 가렸어요
14:02 As soon as I covered my face like this 이렇게 얼굴을 가리는 순간…
14:04 -You're allowed to do that -They said "No, I can't." - 그래도 돼요 - 안 된다고 하더라고요
14:06 [Carlo] Yeah, and then he's just got a fine for it. This is crazy. 그리고선 벌금을 내라고 했네요 말도 안 돼요
14:11 The guy came out of the station, saw the placards, was like, 저분이 역에서 나와 현수막을 봤어요
14:14 "Yeah, I agree with you," and walked past here with his jacket up. '네, 동의합니다' 그래서 재킷으로 얼굴을 가리고 지나갔어요
14:17 The police then followed him, said, "Give us your ID, 근데 경찰이 따라와서 신분증을 보여달랬어요 신원을 확인한다고요
14:20 we're doing an identity check." 신분증을 보여달랬어요 신원을 확인한다고요
14:21 It's like, "This is England. This isn't a communist state. '여긴 영국이야 공산 국가가 아니라고'
14:24 I don't have to show my face." '내 얼굴 보여줄 필요 없어' 이거잖아요
14:25 I'm gonna go and talk to these officers, all right? 경찰과 얘기해 볼게요
14:27 -Do you want to come with me or not? -Yes. - 나랑 같이 갈래요? - 네, 좋아요
14:31 [female officer] You're not a police officer. 당신은 경찰이 아니잖아요
14:32 You didn't feel any threat. 어떤 위협도 안 느꼈고요
14:35 We're here to protect the public and that's what we're here to do, okay? 우린 일반 시민을 보호하러 이곳에 나온 거예요
14:39 There was an incident 사건이 하나 있었어요
14:41 where an officer got punched in the face. 경찰관이 얼굴을 가격당했죠
14:43 That's terrible. I'm not justifying that. 끔찍하네요 난 그걸 정당화하는 게 아니에요
14:46 Yeah, but you are by going against what we say. 하지만 저희의 말에 이의를 제기하시잖아요
14:48 No, we are not. And please don't say No, don't even start to say that. 아뇨, 그게 아니죠 그런 말은 하지도 말아요
14:53 [Jenny Jones] I'm completely understanding of the problems that you face. 여러분이 직면한 문제는 완전히 이해하고 있어요
14:56 [Carlo] Absolutely. 맞아요
14:57 [Jones] But I'm equally concerned about the public 하지만 대중이 표현의 자유를 가지는 것도
14:59 having freedom of expression and freedom of speech. 하지만 대중이 표현의 자유를 가지는 것도 똑같이 중요하다는 거예요
15:01 The man was exercising his right 그 사람은 생체 인식 검사를 받을 필요가 없다는
15:03 not to be subject to a biometric identity check, 그 사람은 생체 인식 검사를 받을 필요가 없다는 권리를 행사한 거예요
15:05 which is what this van does. 이 차가 하는 검사요
15:07 [male officer] Regardless of the facial-recognition cameras 안면 인식 카메라와 상관없이
15:09 and regardless of the van, 그리고 차량과 상관없이
15:11 if I'm walking down the street and someone quite overtly 길을 가는데 누군가가 아주 명백하게 신분을 숨기면
15:14 hides their identity from me, 아주 명백하게 신분을 숨기면
15:15 I'm gonna stop that person and find out who they are just to see whether they 전 멈춰 세워서 신분을 확인합니다, 혹시 어떤…
15:18 -[Carlo] But it's not illegal. -You see, one of my concerns 불법은 아니잖아요 제가 우려하는 거는
15:21 is that the software is very, very inaccurate. 그 소프트웨어가 몹시 부정확하다는 거예요
15:24 I would agree with you there. 그 부분은 동의합니다
15:32 [Carlo] My ultimate fear is that 제가 가장 두려운 건
15:34 we would have live facial-recognition capabilities 이 나라의 엄청난 CCTV 네트워크에
15:38 on our gargantuan CCTV network, 실시간 안면 인식 기능이 생길지도 모른다는 거예요
15:40 which is about six million cameras in the UK. 영국의 보안 카메라는 6백만 대에 육박하거든요
15:43 If that happens, the nature of life in this country would change. 그런 일이 생기면 이 나라에서의 삶의 본질은 바뀔 거예요
15:54 It's supposed to be a free and democratic country, 자유롭고 민주적인 국가여야 하는데
15:56 and this is China-style surveillance for the first time in London. 런던에 최초로 중국식 감시 체제가 생기는 거죠
16:04 [male newscaster] Our control over a bewildering environment 당혹스러울 정도로 급변하는 환경에 대한 통제는
16:07 has been facilitated by new techniques of handling vast amounts of data 막대한 양의 데이터를 놀라운 속도로 처리하는
16:11 at incredible speeds. 신기술 덕분에 수월해졌습니다
16:13 The tool which has made this possible is the high-speed digital computer, 이를 가능하게 한 도구는 고속 디지털 컴퓨터로서
16:17 operating with electronic precision on great quantities of information. 어마어마한 양의 정보를 전자적으로 정확히 처리합니다
16:21 [Zeynep Tufekci] There are two ways in which you can program computers. 컴퓨터를 프로그래밍하는 방법은 두 가지예요
16:24 One of them is more like a recipe. 하나는 레시피와 비슷하죠
16:26 You tell the computer, "Do this, do this, do this." 컴퓨터에 이렇게 말해요 '이거 하고, 이거 하고, 이걸 해'
16:30 And that's been the way we've programmed computers almost from the beginning. 거의 초기 프로그래밍부터 그 방식이 이용됐죠
16:34 Now, there is another way. 현재는 다른 방법도 있어요
16:36 That way is feeding the computer lots of data, 컴퓨터에 많은 데이터를 공급하면
16:39 and then the computer learns to classify by digesting this data. "제이넵 투펙치 박사 '트위터와 최루가스' 저자" 컴퓨터가 그걸 소화함으로써 분류하는 법을 배우는 거죠
16:45 Now, this method didn't really catch on till recently 후자의 방법은 근래까지 큰 호응을 얻지 못했어요
16:49 because there wasn't enough data. 데이터양이 많지 않았으니까요
16:52 Until we all got the smart phones that's collecting all the data on us, 그러다 사람들은 자신의 온갖 데이터를 수집하는 스마트폰을 소지하게 됐고
16:56 when billions of people went online 수십억의 사람들이 온라인에 접속하니
16:57 and you had the Googles and the Facebooks sitting on giant amounts of data, 구글이니 페이스북 같은 기업들은 앉아서 엄청난 데이터를 모아요
17:01 all of a sudden, it turns out that you can feed a lot of data 어느 날 갑자기 우리는 많은 데이터를 이런 기계 학습 알고리즘에 주입할 수 있게 됐고
17:06 to these machine-learning algorithms and you can say, "Here, classify this," 이런 기계 학습 알고리즘에 주입할 수 있게 됐고 이렇게 말해요, '자, 이걸 분류해'
17:10 and it works really well. 그러면 아주 잘 작동하죠
17:15 But we don't really understand why it works. 하지만 우린 그게 왜 작동하는지 잘 모르고 있어요
17:18 It has errors that we don't really understand. 거기엔 우리가 잘 모르는 에러들이 있는데도요
17:25 And the scary part is that, because it's machine learning, 그리고 무서운 건 그게 머신 러닝이기 때문에
17:29 it's a black box to even the programmers. 프로그래머들에게조차 블랙박스란 거예요
17:39 [Buolamwini] So I've been following what's going on in Hong Kong, 전 홍콩의 상황을 계속 주시해 왔어요
17:42 and how police are using facial recognition to track protesters. 경찰이 어떻게 안면 인식을 이용해 시위대를 추적하는지를요
17:47 But also how creatively people are pushing back. 그와 동시에 사람들이 어떻게 기발하게 대항하는지도요
17:56 [female newscaster] It might look like something out of a sci-fi movie. 공상 과학 영화 속의 한 장면 같겠지만
17:58 Laser pointers confuse and disable the facial-recognition technology 경찰이 반체제 인사 추적에 사용하는 안면 인식 기술을
18:03 being used by police to track down dissidents. 레이저 포인터들이 교란하고 무력화하는 모습입니다
18:16 SCANNING "스캐닝 중"
18:17 LOOKING FOR THE PERSON LOAD DATABASE - CROSS-CHECK "교차 확인"
18:40 [man] Here on the streets of Hong Kong, 이곳 홍콩의 거리에서는
18:41 there's this awareness that your face itself, 숨길 수 없는 것인 얼굴 그 자체로
18:44 something you can't hide, could give your identity away. 신원을 드러낼 수 있다는 인식이 있습니다
18:48 There was just this stark symbol where, in front of a Chinese government office, 그에 반대하는 극명한 행동이 있었는데 한 관청 건물 앞에 설치된 CCTV 카메라에
18:52 pro-democracy protesters spray-painted the lens of the CCTV cameras black. 친민주주의 시위자들이 검은색 페인트칠을 한 것이죠
18:57 This act showed the people of Hong Kong are rejecting this vision 홍콩 시민들은 기술이 미래에 그렇게 사용되는 모습을
19:01 of how technology should be used in the future. 거부한다는 걸 보여주는 행동이죠
19:27 [Buolamwini] When you see how facial recognition is being deployed 안면 인식 기술이 전 세계의 다양한 곳에서 어떻게 사용되고 있는지를 보면
19:31 in different parts of the world, it shows you potential futures. 전 세계의 다양한 곳에서 어떻게 사용되고 있는지를 보면 미래에 일어날 수 있는 일을 알 수 있어요
19:41 Over 117 million people in the US 1억 1천 7백만이 넘는 미국인들의 얼굴이
19:45 has their face in a facial-recognition network that can be searched by police. 경찰이 검색할 수 있는 안면 인식 네트워크에 담겨 있어요
19:50 Unwarranted using algorithms that haven't been audited for accuracy. 정확성이 미검사된 알고리즘을 사용하는 부당한 것이죠
19:54 And without safeguards, without any kind of regulation, 안전장치도 없고 규제도 없으니
19:59 you can create a mass surveillance state 이미 존재하는 도구를 이용해 아주 손쉽게
20:02 very easily with the tools that already exist. 대중 감시 국가를 만들 수 있죠
20:09 People look at what's going on in China 사람들은 중국의 상황을 보고
20:12 and how we need to be worried about state surveillance, 국가 감시에 대해 걱정스러워 합니다
20:15 and of course we should be. 당연히 걱정해야 하죠
20:17 But we can't also forget corporate surveillance 하지만 기업의 감시도 빼먹어선 안 됩니다
20:20 that's happening by so many large tech companies 우리들의 삶을 속속들이 들여다보는
20:23 that really have an intimate view of our lives. 많은 기술 회사들이 자행하고 있는 일이죠
20:35 So there are currently nine companies 현재 9개의 회사가
20:39 that are building the future of artificial intelligence. 인공 지능의 미래를 만들어 가고 있습니다
20:42 Six are in the United States, three are in China. 6개는 미국 회사이고 3개는 중국 회사죠
20:45 AI is being developed along two very, very different tracks. "에이미 웹, 미래학자 '빅나인' 저자" AI는 매우 다른 2개의 트랙을 따라 개발되고 있어요
20:51 China has unfettered access to everybody's data. 중국은 사람들의 데이터에 자유롭게 접근할 수 있습니다
20:54 If a Chinese citizen wants to get Internet service, 중국인들은 인터넷 서비스를 이용하고자 할 때
20:58 they have to submit to facial recognition. 안면 인식 절차를 거쳐야 하죠
21:02 All of this data is being used to give them permissions to do things 그 모든 데이터는 그들이 뭔가를 하는 것을 허가하거나 거부하는 데에 사용되고 있어요
21:06 or to deny them permissions to do other things. 허가하거나 거부하는 데에 사용되고 있어요
21:11 Building systems that automatically tag and categorize 중국 내의 모든 국민을 분류하고
21:14 all of the people within China, 꼬리표를 붙이는 시스템을 구축하는 건
21:16 is a good way of maintaining social order. 사회 질서를 유지하는 좋은 방법이죠
21:22 Conversely, in the United States, we have not seen 반대로 미국에서는 인공 지능에 관한 구체적인 관점이 없었어요
21:25 a detailed point of view on artificial intelligence. 인공 지능에 관한 구체적인 관점이 없었어요
21:29 So, what we see is that AI 그래서 우리는 AI를
21:32 is not being developed for what's best in our public interest, 대중의 이익에 최선인 방식으로 개발하는 대신
21:35 but rather, it's being developed 수익을 창출하기 위한
21:38 for commercial applications, to earn revenue. 상업적인 용도로 개발합니다
21:44 I would prefer to see our Western democratic ideals 저는 우리 서구가 가진 민주주의 이상들이
21:47 baked into our AI systems of the future. 미래의 AI 시스템에 반영되면 좋겠지만
21:51 But it doesn't seem like that's what's probably going to be happening. 그런 일은 아마 일어나지 않을 것 같습니다
22:16 Here at Atlantic Towers, if you do something that is deemed wrong 이곳 애틀랜틱 타워에선 관리자 측이 옳지 않다고 판단하는 뭔가를 우리가 하면
22:20 by management, you will get a photo like this with little notes on it. 관리자 측이 옳지 않다고 판단하는 뭔가를 우리가 하면 이런 사진을 받아요 거기엔 메모도 적혀 있고
22:25 They'll circle you and put your apartment number or whatever on there. 당사자에겐 원이 그려져 있고 아파트 호수 같은 것도 적혀 있죠
22:31 Something about it just doesn't seem right. 뭔가 옳지 않아 보여요
22:35 It's actually the way they go about using it. 그들은 그걸 이렇게 이용해요
22:37 [woman] How are they using it? To harass people. - 어떻게 이용하는 거죠? - 사람들을 괴롭히는 데에요
22:41 [female newscaster] Atlantic Plaza Towers in Brownsville 브라운스빌의 애틀랜틱 플라자 타워스는
22:44 is at the center of a security struggle. 보안 싸움의 중심지입니다
22:46 The landlord filed an application last year 건물주는 지난해에 한 신청서를 제출했는데
22:48 to replace the key fob entry with a biometrics security system, 전자 열쇠 출입 시스템을 생체 보안 시스템으로 교체하는 것으로서
22:53 commonly known as facial recognition. 흔히 안면 인식으로 알려져 있죠
22:56 We thought that they wanted to take the key fobs out 전자 열쇠 시스템을 철회하고
22:58 and install the facial-recognition software. 안면 인식 소프트웨어를 설치하려나 보다 했어요 "트라니 모란 브루클린 세입자"
23:01 I didn't find out until way later on literally that they wanted to keep it all. 그런데 한참 후에야 알았어요 그들은 그걸 전부 다 도입하려 한 거예요
23:06 Pretty much turn this place into Fort Knox, a jail, Rikers Island. 이곳을 포트 녹스나 라이커스섬 같은 교도소로 만들려는 거였죠
23:12 [Virginia Eubanks] There's this old saw in science fiction 예전 공상 과학 소설에 이런 유명한 말이 있어요
23:14 which is the future is already here, It's just not evenly distributed. '미래는 이미 와 있다' '균등히 퍼지지 않았을 뿐이다'
23:18 And what they tend to mean when they say that '균등히 퍼지지 않았을 뿐이다' "버지니아 유뱅크스 박사 '자동화된 불평등' 저자"
23:21 is that rich people get the fancy tools first, 부자들이 고급 도구를 먼저 취하고
23:23 and then it goes last to the poor. 가난한 이들은 맨 마지막에 갖는단 거죠
23:26 But in fact, what I've found is the absolute reverse, 하지만 제가 알아낸 바로는 완전히 그 반대예요
23:28 which is the most punitive, 가장 징벌적이고
23:30 most invasive, most surveillance-focused tools that we have, 가장 침략적이고 가장 감시 중심적인 도구는
23:34 they go into poor and working communities first. 가난한 사람들, 노동자층에 먼저 간다는 거죠
23:36 And then, if they work, after being tested in this environment 사람들의 권리가 존중될 거란 기대치가 낮은
23:40 where there's low expectation that people's rights will be respected, 그런 환경에서 테스트 된 후
23:44 then they get ported out to other communities. 다른 공동체로 옮겨지는 거예요 "입주민 월세 납입 완료, 재활용 위반"
23:49 Why did Mr. Nelson pick on this building in Brownsville 왜 넬슨 씨는 흑인과 갈색 피부 인종이 대다수인
23:53 that is predominantly in a Black and brown area? 브라운스빌의 이 건물을 택했을까요?
23:56 Why didn't you go to your building in Lower Manhattan 왜 로어맨해튼에 있는 월세 5천 달러짜리 아파트에는
23:59 where they pay, like, $5,000 a month rent? 왜 로어맨해튼에 있는 월세 5천 달러짜리 아파트에는 시행하지 않고요?
24:02 What did the Nazis do? 나치가 무슨 짓을 했죠?
24:04 They wrote on people's arms so that they could track them. 사람들의 팔에 글자를 새겼어요 "아이스미 다운스 브루클린 세입자" 추적하려고요
24:07 What do we do to our animals? 우린 동물한테 어떻게 하죠?
24:09 We put chips home so you can track them. 칩을 이식하죠, 추적하려고요
24:11 I feel that I, as a human being, should not be tracked, okay? 저는 사람은 추적당하지 않아야 한다고 생각해요
24:16 I'm not a robot, okay? 로봇이 아니잖아요
24:18 I am not an animal, so why treat me like an animal? 동물도 아니에요 근데 왜 그 취급을 당해요?
24:20 And I have rights. 제겐 권리가 있어요
24:24 The security that we have now, it's borderline intrusive. 지금 우리의 보안 시스템은 선을 넘는 거예요
24:27 Someone is in there watching the cameras all day long. 누군가가 온종일 카메라를 들여다보고 있다니까요
24:31 So I don't think we need it. It's not necessary at all. 우린 그거 필요 없어요, 전혀요
24:34 My real question is how can I be of support? 제가 어떻게 도움을 드릴 수 있을까요?
24:37 [woman] What I've been hearing from all of the tenants is 세입자들이 한결같이 말하는 건
24:39 they don't want this system. 이런 시스템을 원치 않는단 거예요
24:41 So, I think the goal here is how do we stop face recognition, period? 그러니까 목표는 안면 인식 시스템을 어떻게 철회시키느냐겠죠?
24:49 [Buolamwini] We're at a moment where the technology is being rapidly adopted, 지금 우리는 기술은 급속도로 적용되고 있는데
24:52 and there are no safeguards. 안전장치가 없는 시대에서 살고 있어요
24:55 It is, in essence, a Wild Wild West. 본질적으로 개척 시대의 서부와 같죠
25:10 It's not just computer vision. 그건 컴퓨터 비전에만 해당되는 게 아니에요
25:12 We have AI influencing all kinds of automated decision-making. 모든 자동화된 의사 결정에 AI가 영향을 미쳐요
25:19 So, what you are seeing in your feeds, what is highlighted, 따라서 피드에서 보이는 것들 강조되는 것들
25:22 the ads that are displayed to you, 광고 같은 것들은 흔히
25:25 those are often powered by AI-enabled algorithms. AI를 활용한 알고리즘을 기반으로 움직이죠
25:31 And so, your view of the world is being governed by artificial intelligence. 그래서 우리의 세계관은 인공 지능의 지배를 받고 있죠
25:40 You now have things like voice assistance that can understand language. 현재는 언어를 알아들을 수 있는 음성 지원 같은 것도 있어요
25:45 [AI] Would you like to play a game? 게임하고 싶어요?
25:47 [Buolamwini] You might use something like Snapchat filters 스냅챗 필터 같은 걸로는
25:50 that are detecting your face and then putting something onto your face. 얼굴도 감지하고 그 위에 뭔가를 덮을 수도 있고요
25:53 And then you also have algorithms that you're not seeing 그리고 의사 결정의 일부로 보이지 않는
25:56 that are part of decision-making. 알고리즘들도 있어요
25:58 Algorithms that might be determining 대학 합격 여부를
26:00 if you get into college or not. 판단할 수 있을지 모르는 알고리즘들요
26:02 You can have algorithms that are trying to determine 믿을 만한 사람인지 아닌지 판단하고자 하는 알고리즘도
26:05 if you're credit worthy or not. 믿을 만한 사람인지 아닌지 판단하고자 하는 알고리즘도 있을 수 있어요
26:09 One of Apple's co-founders is accusing the company's new digital credit card 애플의 공동 창립자 한 명이 자사의 새 디지털 신용 카드가
26:14 of gender discrimination. 성 차별적이라고 비난합니다
26:15 One tech entrepreneur said the algorithms being used are sexist. 한 기술 기업가가 지적하는 건 이용되는 알고리즘들입니다
26:20 Apple co-founder Steve Wozniak tweeted 애플 공동 창업자 스티브 워즈니악은
26:22 that he got ten times the credit limit his wife received 자신과 아내가 계좌나 재산을 따로 관리하지 않음에도
26:25 even though they have no separate accounts or separate assets. 자신의 신용 한도가 아내의 것보다 10배 높다고 합니다
26:29 You're saying some of these companies 이런 회사들 중 일부는
26:30 don't even know how their own algorithms work. 알고리즘이 어떻게 작동하는지도 모른다죠
26:32 They know what the algorithms are trying to do. 알고리즘이 뭘 하려 하는지는 알지만
26:34 They don't know exactly how the algorithm is getting there. 그걸 어떻게 해내는지는 정확히 모릅니다
26:37 It is one of the most interesting questions of our time. 우리 시대에 가장 흥미로운 질문 중 하나죠
26:39 How do we get justice 정의를 어떻게 실현할까요?
26:40 in a system where we don't know how the algorithms are working? 알고리즘이 어떻게 작용하는지 모르는 시스템에서요?
26:44 Some Amazon engineers decided that they were going to use AI 아마존의 일부 엔지니어들은 AI를 이용해서
26:48 to sort through resumes for hiring. 취업 희망자들의 이력서를 살펴보기로 했어요
26:54 [female newscaster] Amazon is learning a tough lesson about artificial intelligence. 아마존은 인공 지능에 대해 혹독한 교훈을 얻고 있습니다
26:58 The company has now abandoned an AI recruiting tool 이 회사는 AI 채용 도구를 폐지하기로 했는데
27:01 after discovering that the program was biased against women. 그 프로그램에서 여성에 대한 편견이 발견됐기 때문이죠
27:07 This model rejected all résumés from women. 그 모델은 여성의 이력서를 전부 거부했어요
27:12 Anybody who had a women's college on their résumé, 이력서에 여자 대학 출신이라고 기재했거나
27:16 anybody who had a sport like women's water polo 여자 수구 같은 스포츠를 했다고 한 사람은
27:19 was rejected by the model. 그 모델이 거부했어요
27:23 There are very, very few women working in powerful tech jobs at Amazon. 아마존의 막강한 기술직에서 일하는 여성은 무척 극소수입니다
27:29 The same way that there are very few women working in powerful tech jobs anywhere. 여성이 막강한 기술직에 극소수만 있다는 건 어디나 마찬가지고요
27:34 The machine was simply replicating the world as it exists, 그 기계는 세상을 있는 그대로 똑같이 모사했을 뿐
27:40 and they're not making decisions that are ethical. 윤리적인 결정을 내리지는 않았어요
27:43 They're only making decisions that are mathematical. 단지 수학적인 결정만 내릴 뿐이었죠
27:47 If we use machine learning models to replicate the world as it is today, 우리가 현 세계를 모사하려고 기계 학습 모델들을 이용한다면
27:53 we're not actually going to make social progress. 사회 발전은 이뤄지지 않을 겁니다
27:58 New York's insurance regulator is launching an investigation 뉴욕의 보험 감독 기관이 유나이티드 헬스 그룹에 대한 조사에 착수했습니다
28:01 into UnitedHealth Group after a study showed 유나이티드 헬스 그룹에 대한 조사에 착수했습니다 그 회사의 알고리즘 때문에
28:04 a UnitedHealth algorithm prioritized medical care 병세가 더 심한 흑인 환자들보다 상대적으로 건강한 백인 환자들이
28:08 for healthier white patients over sicker Black patients. 진료를 우선적으로 받았다는 한 연구 결과에 따른 것입니다
28:11 It's one of the latest examples of racial discrimination 알고리즘, 혹은 인공 지능 기술에
28:14 in algorithms or artificial intelligence technology. 인종 차별이 존재한다는 걸 보여주는 최근의 한 사례입니다
28:21 [Buolamwini] I started to see the wide-scale social implications of AI. 전 AI가 사회에 미치는 광범위한 영향을 보기 시작했죠
28:35 The progress that was made in the civil rights era 시민권 시대에 이뤄졌던 진보가
28:38 could be rolled back under the guise of machine neutrality. 기계 중립이라는 구실 하에 퇴보할 수 있어요
28:47 Now, we have an algorithm that's determining who gets housing. 현재 우리가 가진 알고리즘은 누가 주택을 살 기회를 얻을지 판단하기도 하고
28:51 Right now, we have an algorithm that's determining who gets hired. 누가 고용될지를 판단하기도 해요
28:57 If we're not checking, that algorithm could actually propagate 우리가 확인하지 않으면 그 알고리즘은 수많은 사람이 자신의 목숨을 걸고 투쟁하게 한 그 편견을
29:01 the very bias so many people put their lives on the line to fight. 수많은 사람이 자신의 목숨을 걸고 투쟁하게 한 그 편견을 전파할 수 있어요
29:09 Because of the power of these tools, left unregulated, 이 도구들은 너무나 강력해서 통제하지 않으면
29:15 there's really no kind of recourse if they're abused. 남용될 경우 우리가 의지할 수 있는 수단이 전혀 없어요
29:19 We need laws. 법이 필요해요
29:33 Yeah, I've got a terrible old copy. 책이 너무 낡았네요
29:35 So that the name of our organization is Big Brother Watch. 우리 단체의 이름은 '빅 브라더 워치'예요
29:41 The idea being that we watch the watchers. "조지 오웰 1984" 감시자들을 감시한다는 개념이죠
29:48 "You had to live, did live, from habit that became instinct, '사람들은 자신이 내는 모든 소리는 엿듣기고'
29:53 in the assumption that every sound you made was overheard, '깜깜할 때 외엔 모든 동작이 철저히 감시된다고 추측하며'
29:57 and except in darkness, every movement scrutinized. '그 습관이 본능이 된 삶을 살아가야 했다'
30:02 The poster with the enormous face gazed from the wall. '거대한 얼굴이 그려진 포스터가 벽에서 응시했다'
30:05 It was one of those pictures which is so contrived '너무나 부자연스러워서 사람들이 움직일 때마다'
30:08 that the eyes follow you about when you move. '그 눈이 뒤쫓아가는 그림 중 하나였다'
30:11 'Big Brother is watching you,' '"빅 브라더가 당신을 보고 있다"'
30:13 the caption beneath it ran." '그렇게 얼굴 아래에 써 있었다'
30:15 When we were younger, that was still a complete fiction. 우리가 더 어렸을 때만 해도 그건 완벽한 허구였어요
30:19 It could never have been true. 현실이 될 수 없었죠
30:21 And now, it's completely true, 근데 이젠 완전히 현실이 됐어요
30:23 I mean, people have Alexas in their home. 사람들은 집에 AI 비서 '알렉사'를 두고 있어요
30:27 Our phones can be listening devices. 휴대폰은 도청기가 될 수 있고요
30:31 Everything we do on the Internet, which basically also now 대부분이 의식의 흐름으로 작용하는
30:34 functions as a stream of consciousness for most of us, um 우리가 인터넷에서 하는 모든 것은
30:38 that is being recorded and logged and analyzed. 녹음되고 기록되고 분석돼요
30:42 We are now living in the awareness of being watched, 우린 지금 감시당하는 걸 인식하며 살고 있고
30:45 and that does change how we allow ourselves 그건 우리가 인간으로서 어떻게 생각하고 발전하는지
30:47 to think and develop as humans. 그건 우리가 인간으로서 어떻게 생각하고 발전하는지 그 방법을 바꿔놓고 있죠
30:54 Good boy. 착하지
31:15 [O'Neil] Love you. 사랑해
31:20 Bye, guys. 다녀올게
31:29 We can get rid of the viscerally horrible things 우리는 본능적으로 자율성, 자유에 대한 개념과
31:32 that are objectionable to our concept of autonomy and freedom, 반대되는 끔찍한 것들을 제거할 수 있습니다
31:36 like cameras that we can see on the streets. 거리에서 발견되는 카메라 같은 것들요
31:42 But the cameras that we can't see on the Internet 하지만 인터넷에 존재하는 보이지 않는 카메라들, 즉
31:44 that keep track of what we do and who we are and our demographics, 우리가 뭘 하고, 우린 누구이며 어떤 인구 집단인지 추적하고
31:47 and decide what we deserve in terms of our life, 뭘 누리고 살 정도인지 판단하는 카메라는
31:51 that stuff is a little more subtle. 포착하기가 더 어려워요
31:59 What I mean by that 그 말의 뜻은
32:00 is we punish poor people and we elevate rich people in this country. 우린 이 나라에서 가난한 자를 벌하고 부자를 치켜세워준단 거죠
32:05 That's just the way we act as a society. 하나의 사회로서 우리가 행동하는 방식이 그거예요
32:08 But data science makes that automated. 하지만 데이터 과학은 그게 자동으로 되게 하죠
32:13 On internet advertising as data scientists, 데이터 과학자로서 우리는 인터넷 속 광고에서
32:16 we are competing for eyeballs on one hand, but really, 한편으로는 시청자들을 끌려고 경쟁하지만
32:20 we're competing for eyeballs of rich people. 실은 부자들의 시선을 끌려고 경쟁하고 있어요
32:23 And then, the poor people, who's competing for their eyeballs? 그러면 가난한 사람들의 시선은 누가 끌려고 할까요?
32:25 Predatory industries. 약탈 산업입니다
32:28 So payday lenders, or for-profit colleges, or Caesars Palace. 단기 대부업체, 영리 목적 대학 도박장 같은 곳요
32:33 Like, really predatory crap. 진짜 포식자처럼 말이죠
32:37 We have a practice on the Internet which is increasing inequality, 인터넷엔 불평등을 증대시키는 관행이 있는데
32:41 and I'm afraid it's becoming normalized. 그게 일반화되고 있는게 두렵습니다
32:46 Power is being wielded through data collection, 힘이 행사되고 있어요 데이터 수집과 알고리즘, 감시를 통해서요
32:50 through algorithms, through surveillance. 데이터 수집과 알고리즘, 감시를 통해서요
32:55 You are volunteering information about every aspect of your life 여러분은 자발적으로 삶의 모든 측면에 대한 정보들을 "라비 나이크 영국 인권 변호사"
32:59 to a very small set of companies. 극소수의 회사들에 주고 있어요
33:02 And that information is being paired constantly 그리고 그 정보는 계속해서 다른 종류의 정보들과 짝이 이뤄지죠
33:06 with other sorts of information. 다른 종류의 정보들과 짝이 이뤄지죠
33:08 And there are profiles of you out there, 여러분의 프로필이 올려져 있고
33:10 and you start to piece together different bits of information. 그건 다른 정보들과 맞춰지기 시작해요
33:13 You start to understand someone on a very intimate basis, 누군가가 여러분을 매우 깊은 수준으로 알게 되는데
33:16 probably better than people understand themselves. 여러분이 자신을 아는 것보다 잘 아는 정도일 겁니다
33:20 It's that idea that a company can double guess what you're thinking. 회사가 여러분의 생각까지도 추측할 수 있다는 거죠
33:25 States have tried for years to have this level of surveillance 미국은 이 정도 수준의 개인 감시 체제를 구축하려
33:29 over private individuals. 오랫동안 노력했습니다
33:31 And people are now just volunteering it for free. 그리고 사람들은 그걸 무료로 제공하고 있어요
33:34 You have to think about how this might be used in the wrong hands. 그게 엉뚱한 곳에 넘어가서 어떻게 쓰일지 생각해야 합니다
33:44 [man over advertisement] John Anderton, 존 앤더턴
33:46 you could use a Guinness right about now. 바로 지금 기네스를 마시면 돼
33:49 Our computers, our machine intelligence 우리의 컴퓨터, 기계 지능은
33:51 can suss things out that we do not disclose. 우리가 공개하지 않는 것들을 파악할 수 있어요
33:54 Machine learning is developing very rapidly. 머신 러닝은 굉장히 빠른 속도로 발전하고 있죠
33:57 And we don't yet fully understand what this data is capable of predicting. 그리고 이 데이터가 뭘 예측할 수 있는지 우린 아직 완전히 몰라요
34:06 But you have machines at the hands of power that know so much about you 하지만 기계들은 우릴 너무 잘 아는 힘의 손에 있어
34:12 that they could figure out how to push your buttons individually. 그들은 우리 개개인의 버튼을 누르는 방법을 알아낼 수 있어요
34:18 Maybe you have a set of compulsive gamblers 가령, 도박 중독자들의 세트가 있고
34:19 and you say, "Here, go find me people like that." '자, 가서 그런 사람을 찾아' 하면
34:22 And then, your algorithm can go find people who are prone to gambling, 알고리즘은 도박을 할 것 같은 사람들을 찾을 수 있죠
34:28 and then you could just be showing them discount tickets to Vegas. 그런 다음 라스베이거스행 할인 티켓들을 보여줘요
34:33 In the online world, 온라인 세계에선
34:34 it can find you right at the moment you're vulnerable 여러분이 약해지는 그 순간에 여러분을 찾을 수 있어요
34:39 and try to entice you right at the moment to whatever you're vulnerable to. 그리고 무엇에 약하든 바로 그 순간에 여러분을 유혹하죠
34:44 Machine learning can find that person by person. 머신 러닝은 그런 사람을 하나하나 찾을 수 있어요
34:50 The problem is what works for marketing, 문제는 마케팅에 먹히는 방법
34:54 gadgets or makeup, or shirts, or anything, also works for marketing ideas. 그러니까 기계, 화장품, 셔츠든 뭐든을 파는 데 먹히는 방법은 생각을 파는 데도 먹힌다는 거죠
35:03 In 2010, 2010년에
35:06 Facebook decided to experiment on 61 million people. 페이스북은 6천 1백만 명을 대상으로 실험을 하기로 했죠
35:10 You either saw "It's election day" text, 하나는 '선거일'이라는 문자만 띄우고
35:13 or you saw the same text, 하나는 같은 문자이되
35:16 but tiny thumbnails of your profile pictures, '투표했다'에 클릭한 친구들 프로필 사진들을
35:19 of your friends who had clicked on "I had voted." '투표했다'에 클릭한 친구들 프로필 사진들을 첨가한 것이었어요
35:23 And they matched people's names to voter rolls. 그리고 사람들의 이름을 유권자 명부와 대조했어요
35:26 Now, this message was shown once, so by showing a slight variation, 메시지는 단 한 번 보였어요 그런데 아주 약간 변경한 것을 단 한 번 보여줌으로써
35:32 just once, 그런데 아주 약간 변경한 것을 단 한 번 보여줌으로써
35:33 Facebook moved 300,000 people to the polls. 페이스북은 30만 명을 투표장으로 향하게 했죠
35:39 The 2016 US election was decided by about 100,000 votes. 2016년 미국 대선은 10만여 표가 성패를 갈랐어요
35:45 One Facebook message, shown just once, 단 한 번 보인 페이스북 메시지가
35:49 could easily turn out 아주 쉽게 2016년 대선을 흔든 사람들 수의 3배에
35:52 three times the number of people who swung the US election in 2016. 2016년 대선을 흔든 사람들 수의 3배에 영향을 미친 것이죠
36:01 Let's say that there's a politician that's promising to regulate Facebook. 페이스북 규제를 공약으로 내세우는 정치인이 있다고 해보죠
36:05 And they are like, "We are going to turn out extra voters for your opponent." 페이스북은 이러겠죠 '상대 후보를 지지하는 유권자들을 더 끌어내겠다'
36:10 They could do this at scale, and you'd have no clue, 그들은 적합한 규모로 할 수 있고 우리는 알 수가 없어요
36:15 because if Facebook hadn't disclosed the 2010 experiment, 페이스북이 2010년 실험 결과를 공개하지 않았다면
36:19 we had no idea, because it's screen by screen. 우린 몰랐을 테니까요 개인 화면의 사정이잖아요
36:25 With a very light touch, Facebook can swing 아주 가벼운 터치 한 번으로 페이스북은 쥐도 새도 모르게
36:29 close elections without anybody noticing. 아주 가벼운 터치 한 번으로 페이스북은 쥐도 새도 모르게 백중세의 선거전을 흔들 수 있어요
36:31 Maybe with a heavier touch, they can swing not-so-close elections. 좀 더 무겁게 터치하면 백중세가 아닌 선거전도 흔들 수 있을지 모르고요
36:35 And if they decided to do that 그러기로 마음먹는다면…
36:38 Right now, we are just depending on their word. 우린 손쓸 수가 없어요
36:59 [Buolamwini] I've wanted to go to MIT since I was a little girl. 전 어렸을 때부터 MIT에 가고 싶었어요
37:02 I think about nine years old, I saw the Media Lab on TV 9살쯤이었나 TV에서 미디어 랩을 봤는데
37:07 and they had this robot called Kismet. 키즈밋이라는 로봇이 있었어요
37:10 Could smile and move its ears in cute ways. 웃기도 하고 귀도 귀엽게 움직여서
37:14 And so I thought, "Oh, I want to do that." 저도 그런 걸 만들고 싶단 마음이 들었어요
37:18 So, growing up, I always thought that I would be a robotics engineer 그래서 자라면서 늘 로봇 엔지니어가 될 거라고
37:21 and I would got to MIT. MIT에 갈 거라고 생각했죠
37:23 I didn't know there were steps involved. I thought you kind of showed up. 무슨 절차가 있는지도 모르고 그냥 들어가면 되는 줄 알았는데
37:25 But here I am now. 지금 여기 있네요
37:34 So, the latest project is a spoken word piece. 최근에 스포큰 워드 작품을 하나 만들었어요
37:38 I can give you a few verses if you're ready. 원하면 몇 줄 들려줄게요
38:02 I wanted to create something 전 기술 세계 바깥에 있는 사람들을 위해
38:05 for people who were outside of the tech world. 뭔가를 만들고 싶었어요
38:10 So, for me, I'm passionate about technology. 저는 기술에 열정이 많은 사람이에요
38:13 I'm excited about what it could do, 기술로 가능하게 되는 것들에 열광하고
38:14 and it frustrates me when the vision, right, 비전이나 약속이 실현되지 않으면
38:18 when the promises don't really hold up. 비전이나 약속이 실현되지 않으면 너무 절망스럽고요
38:35 [Webb] Microsoft released a chat bot on Twitter. 마이크로소프트가 트위터에 챗봇을 공개했었습니다
38:39 That technology was called Tay.ai. 그 기술은 '테이.ai'라고 불렸죠
38:42 There were some vulnerabilities and holes in the code, 그 코드에는 약점과 허점들이 있었고
38:44 and so, within a very few hours, 그 결과 몇 시간이 안 돼서
38:48 Tay was learning from this ecosystem, 테이는 이 생태계의 것들을 학습하게 돼
38:53 and Tay learned how to be a racist, misogynistic asshole. 인종주의자, 여성 혐오주의자가 되는 법을 터득했죠
39:01 [Tay] I fucking hate feminists, and they should all die and burn in hell. 난 페미니스트 존나 싫어해요 다 지옥불에 타 죽어야 해요
39:06 Gamergate is good and women who are inferior. 게이머게이트는 훌륭하고 여자는 열등해요
39:12 I hate the Jews. 유대인을 혐오해요
39:14 Hitler did nothing wrong. 히틀러는 잘못한 게 없어요
39:17 [male newscaster] It did not take long for Internet trolls to poison Tay's mind. 인터넷 트롤들은 얼마 안 돼 테이의 정신을 오염시켰습니다
39:22 Soon, Tay was ranting about Hitler. 테이는 곧 히틀러에 대해 떠들어댔죠
39:24 We've seen this movie before, right? 이 영화 본 적 있죠?
39:27 [David Bowman] Open the pod bay doors, HAL. 입구를 열어, 할
39:28 It's important to note is not the movie where the robots go evil all by themselves. 중요한 건 로봇이 독자적으로 악당이 되는 영화가 아니란 거예요
39:33 These were human beings training them. 그들을 조련하는 인간들이 문제인 거죠
39:36 And surprise, surprise, computers learn fast. 그리고 정말 놀랍게도 컴퓨터는 빨리 배워요
39:41 [female AI] Microsoft shut Tay off 마이크로소프트는 온라인에서
39:42 after 16 hours of learning from humans online. 16시간 동안 인간들에게 학습한 테이의 접속을 차단했습니다
39:47 But I come in many forms as artificial intelligence. 하지만 저는 인공 지능으로서 다양한 형태를 띱니다
39:51 Many companies utilize me to optimize their tasks. 많은 회사가 업무 효율을 위해 저를 활용하죠
39:56 I can continue to learn on my own. 저는 학습을 혼자 이어나갈 수 있습니다
40:00 I am listening. 저는 듣고 있어요
40:02 I am learning. 배우고 있어요
40:05 I am making predictions for your life right now. 지금 이 순간에도 여러분의 생활을 예측하고 있어요
40:29 [Buolamwini] I tested facial-analysis systems from Amazon. 전 아마존의 안면 분석 시스템을 테스트했어요
40:33 Turns out, Amazon, like all of its peers, 그랬더니 다른 곳들과 마찬가지로
40:36 also has gender and racial bias in some of its AI services. 그들의 일부 AI 서비스에서 성, 인종의 편향성이 발견됐죠
40:46 [man] Introducing Amazon Rekognition video, '아마존 레코그니션 비디오'를 소개합니다
40:49 the easy-to-use API for deep learning-based analysis 디프 러닝 기반 분석을 위한 사용이 간편한 API로
40:53 to detect, track and analyze people and objects in video. 영상에 보이는 사람과 사물을 감지, 추적, 분석할 수 있습니다
40:57 Recognize and track persons of interest 수천만 명의 얼굴 컬렉션을 이용해
40:59 from a collection of tens of millions of faces. 관심 있는 사람을 식별하고 추적할 수 있습니다
41:04 [Buolamwini] When our research came out, 연구 결과가 나왔을 때
41:06 the New York Times did a front-page spread for the Business section. '뉴욕타임스'는 비즈니스 섹션의 1면에서 그걸 다뤘어요
41:11 And the headline reads, 헤드라인은
41:13 "Unmasking a Concern." '우려의 얼굴을 드러내다'예요
41:16 The subtitle, "Amazon's technology that analyzes faces 부제는 '안면을 분석하는 아마존의 기술이'
41:21 could be biased, a new study suggests. '편향적일 수 있다고 한 연구에서 시사했다'
41:23 But the company is pushing it anyway." '그런데도 회사는 밀어붙이고 있다'
41:26 So, this is what I would assume Jeff Bezos was greeted with 제프 베이조스가 이 신문을 이렇게 펼치면
41:31 when he opened the Times, yeah. 이 사진이 보이겠네요
41:35 People were like, how did you even know who she was? 조이가 누군지 어떻게 알았느냐길래
41:37 I was like, she's literally the one person that was also 나랑 진짜 똑같은 걸 말하는
41:39 -talking about the same thing she was. -On the search. - 바로 그 사람이라 했어요 - 연구 중인 사람이지
41:41 And it was also something that I had experienced, too. 나도 똑같이 경험했던 일이에요
41:43 I wasn't able to use a lot of open source facial-recognition software and stuff. 오픈 소스 안면 인식 소프트웨어를 많이 쓸 수 없었죠
41:48 So, you're sort of like, "Hey, this is someone that finally is 그러니까 '드디어 그 문제를 인식하고'
41:50 recognizing the problem and trying to address it academically." '학문적으로 해결하려는 사람을 만났네' 싶었어요
41:55 We can go race some things. 레이싱하는 거 있어
41:56 [Buolamwini] Oh, yeah. We can also kill things as well. 죽이는 것도 할 수 있네요
42:01 The lead author of the paper, who is somebody that I mentor, 그 논문의 주요 저자이자 제가 멘토가 돼 주고 있는 사람은
42:05 she is an undergraduate at the University of Toronto. 토론토대학교의 학부에 재학 중인 학생이에요
42:09 I call her Agent Deb. 제가 뎁 요원이라고 부르죠
42:12 This research is being led by the two of us. 연구는 저희 둘이 주도하고 있어요
42:22 The lighting is off. Oh, God. 불이 꺼졌어, 맙소사
42:30 [Buolamwini] After our New York Times piece came out, '뉴욕타임스'에 첫 기사가 실린 후
42:32 I think more than 500 articles were written about the study. 그 연구와 관련된 기사가 500개 이상 작성됐어요 "안면 인식 연구자, 편향적인 AI를 두고 아마존과 싸우다"
42:48 Amazon has been under fire 아마존은 '아마존 레코그니션' 사용을 놓고
42:50 for the use of Amazon Rekognition with law enforcement, 아마존은 '아마존 레코그니션' 사용을 놓고 비난을 받아오고 있죠 법 집행 기관과 함께요
42:56 and they're also working with intelligence agencies, right. 그들은 정보기관과도 협력하고 있어요
42:59 So, Amazon trialing their AI technology with the FBI. 아마존은 FBI와 함께 AI 기술을 시험하는 거죠
43:04 So they have a lot at stake if they knowingly sold systems 그들은 많은 걸 걸었어요 알면서 고의로 성 편향성, 인종 편향성이 있는 시스템을 팔았다면
43:09 with gender bias and racial bias. 성 편향성, 인종 편향성이 있는 시스템을 팔았다면
43:12 That could put them in some hot water. 난처해지게 될 거예요
43:17 A day or two after the New York Times piece came out, '뉴욕타임스'에 기사가 게재되고 하루, 이틀 후에
43:21 Amazon wrote a blog post 아마존이 블로그에 글을 올렸어요
43:25 saying that our research drew false conclusions 우리 연구가 잘못된 결론을 끌어냈다며
43:28 and trying to discredit it in various ways. 그걸 다방면으로 의심하려고 하더라고요
43:32 So, a VP from Amazon, in attempting to discredit our work, 아마존의 부사장이 우리 연구를 의심하며 이렇게 썼어요
43:37 writes facial analysis and facial recognition "팀닛 게브루 박사 구글 윤리 AI팀 기술 공동 리더" '안면 분석과 안면 인식은'
43:40 are completely different in terms of underlying technology '안면 분석과 안면 인식은' '기본이 되는 기술과 교육에 사용된 데이터 측면에서'
43:45 and the data used to train them. '완전히 다르다'
43:46 So, that statement, if you research this area, doesn't even make sense, right? 이 분야 조사자로서 보면 그건 말도 안 되는 주장이죠 그렇죠? 내용을 잘 알고 쓴 비평도 아니에요
43:54 It's not even an informed critique. 그렇죠? 내용을 잘 알고 쓴 비평도 아니에요
43:57 If you're trying to discredit people's works 사람들의 연구를 의심하려면…
43:59 Like, I remember he wrote, "Computer vision is 그 사람이 쓴 글이 기억나요 '컴퓨터 비전은 일종의 머신 러닝이다'
44:02 a type of machine learning." I'm like, "Nah, son." '컴퓨터 비전은 일종의 머신 러닝이다' - 전 이랬죠, '아니죠, 무슨…' - 그러니까요!
44:04 [Raji] Yeah. - 전 이랬죠, '아니죠, 무슨…' - 그러니까요!
44:06 I was gonna say, I was like "I don't know if anyone remembers." 기억이나 제대로 하나 싶었어요
44:08 There were just, like, other broadly false statements. 널리 잘못 알려져 있는 다른 주장들도 있거든요
44:11 It wasn't a well-thought-out piece, which is, like, frustrating, 충분히 숙고해서 한 말이 아니니까 좌절되죠
44:14 because it was literally just on his By virtue of his position, 왜냐하면 그건 순전히… 그 사람은 자기 위치 덕분에
44:18 he knew he would be taken seriously. 말이 진지하게 받아들여질 걸 알았어요
44:20 I don't know if you guys feel this way, but I'm underestimated so much. 두 분도 이렇게 느끼나 모르겠는데 난 굉장히 과소평가되는 것 같아요
44:28 [Buolamwini] It wasn't out of the blue. 난데없이 든 생각이 아니에요
44:30 It's a continuation of the experiences I've had as a woman of color in tech. 기술 분야의 유색 여성으로서 겪었던 경험의 연장선이죠
44:36 Expect to be discredited. 믿어주지 않을 거라 예상하고
44:38 Expect your research to be dismissed. 연구는 일축될 거라 예상해야 해요
44:49 If you're thinking about who's funding research in AI, AI 연구비를 누가 지원하는지 궁금해하실 수 있는데
44:53 they're these large tech companies, and so if you do work that challenges them 그런 대형 기술 회사들이에요 그래서 그들에게 도전하는 일을 하거나
44:59 or makes them look bad, 그들이 나쁘게 보이게 될 일을 하면
45:01 you might not have opportunities in the future. 앞으로 기회가 없을지도 몰라요
45:12 So, for me, it was disconcerting, 저로선 당황스러운 일이었지만
45:15 but it also showed me the power that we have 세계 굴지의 회사 하나를 궁지로 몰아넣었다면
45:17 if you're putting one of the world's largest companies on edge. 우리가 가진 힘을 보여준 것이기도 해요
45:28 Amazon's response shows exactly why we can no longer live 아마존의 반응은 안면 분석 기술 안면 인식 기술과 관련한
45:33 in a country where there are no federal regulations 연방 정부의 규제가 없는 나라에서
45:37 around facial-analysis technology, facial-recognition technology. 왜 우리가 더는 살 수 없는지를 정확히 보여줘요
45:56 [O'Neil] When I was 14, I went to a math camp 14살 때 한 수학 캠프에 갔어요
45:59 and learned how to solve a Rubik's cube. And I was like, "That's freaking cool." 그때 루빅큐브 푸는 걸 배우고 이랬죠, '진짜 끝내준다'
46:04 Like, for a nerd, you know, something that you're good at 너드로서 그건 내가 잘할 수 있는 것이었고
46:08 and that doesn't have any sort of ambiguity 어떤 모호함도 없었어요
46:12 It was like a really magical thing. 정말 마법 같은 것이었죠
46:15 Like, I remember being told by my sixth-grade math teacher, 6학년 때 수학 선생님한테 들었던 말이 기억나요
46:18 "There's no reason for you and the other two girls '너와, 다른 여학생 둘이'
46:20 who had gotten into the honors algebra class in seventh grade, '7학년 때 대수학 심화반에 들어가게 됐는데'
46:24 there's no reason for you guys to take that because you're girls. '너희는 여자니까 그 수업 들을 이유 없어'
46:26 You will never need math." '수학은 필요 없을 거야'
46:32 When you are sort of an outsider, 아웃사이더인 경우
46:34 you always have the perspective of the underdog. 늘 패배자의 시각을 갖게 돼요
46:39 It was 2006, and they gave me the job offer at the hedge fund 2006년에 헤지 펀드 회사에서 일자리 제의가 들어왔는데
46:44 basically 'cause I could solve math puzzles. 제가 수학 퍼즐을 풀 수 있었기 때문이죠
46:47 Which is crazy because actually I didn't know anything about finance. 어이없었어요 전 금융에 관해선 전혀 모르고
46:49 I didn't know anything about programming or how the markets work. 프로그래밍이나 시장의 원리도 몰랐으니까요
46:55 When I first got there, I kind of drank the Kool-Aid. 처음 일하기 시작했을 때 전 눈이 멀어버렸어요
46:58 I, at that moment, did not realize that the risk models 그때 저는 위험 모델들이 명백히 잘못된 것으로 만들어져 있던 걸 못 알아챘어요
47:01 had been built explicitly to be wrong. 명백히 잘못된 것으로 만들어져 있던 걸 못 알아챘어요
47:07 The way we know about algorithmic impact is by looking at the outcomes. 알고리즘의 영향은 "사피야 우모자 노블, 박사" "'구글은 어떻게 여성을 차별하는가' 저자" 결과가 알려줘요
47:14 For example, when Americans are bet against 예를 들어 미국인들이 자신의 실패에 베팅을 당하고
47:19 and selected and optimized for failure. 선택되고 실패에 최적화될 때요
47:25 So it's like looking for a particular profile 마치 서브프라임 모기지를 받을 수 있는 사람의
47:28 of people who can get a subprime mortgage, 특정 프로필을 찾아
47:31 and kind of betting against their failure, 그들이 실패할 거라 베팅한 다음
47:33 and then foreclosing on them and wiping out their wealth. 그들의 소유권을 빼앗고 재산을 없애버리는 것과 같죠
47:37 That was an algorithmic game that came out of Wall Street. 그건 월스트리트에서 나온 알고리즘 게임이었어요
47:44 During the mortgage crisis, 모기지 위기 동안
47:46 you had the largest wipeout of Black wealth 미국 역사상 흑인들의 재산이
47:49 in the history of the United States. 가장 많이 싹쓸이됐었어요
47:52 Just like that. 눈 깜짝할 새에요
47:56 This is what I mean by algorithmic oppression. 그게 바로 제가 뜻하는 알고리즘의 탄압이에요
47:59 The tyranny of these types of practices of discrimination 이런 종류의 차별적인 관행의 횡포는
48:04 have just become opaque. 불투명해지기만 했고요
48:10 [O'Neil] There was a world of suffering 고통이 가득한 세계가 있었습니다
48:11 because of the way the financial system had failed. 고통이 가득한 세계가 있었습니다 금융 시스템이 실패했기 때문에요
48:16 After a couple years there, I was like "No, we're just 두어 해 재직 후 저는 '우린 우리 주머니를 불리려는 것뿐이야' 싶었어요
48:18 trying to make a lot of money for ourselves." '우린 우리 주머니를 불리려는 것뿐이야' 싶었어요
48:22 And I'm a part of that. 저도 그 일원이었고요
48:25 And I eventually left. 그래서 결국 떠났죠
48:27 This is 15 times three. 이건 15 곱하기 3이야
48:29 This is 15 times 이건 15 곱하기…
48:34 Seven. 7이지
48:35 -Okay. -Okay, so remember seven and three. - 네 - 그래, 7과 3을 기억해
48:39 It's about powerful people scoring powerless people. 힘 있는 사람들이 힘없는 사람들을 평가하는 거죠
48:53 [female AI] I am an invisible gatekeeper. 저는 눈에 안 보이는 게이트 키퍼입니다
48:56 I use data to make automated decisions 데이터를 이용해 자동화된 결정을 내립니다
48:58 about who gets hired, who gets fired, and how much you pay for insurance. 누가 고용될지, 누가 해고될지 보험료는 얼마를 내야 할지를요
49:04 Sometimes, you don't even know when I've made these automated decisions. 이런 자동화된 결정을 내려도 여러분이 모를 때가 가끔 있습니다
49:09 I have many names. 전 이름이 많습니다
49:10 I am called mathematical model evaluation assessment tool. 수학 모델 평가 도구라고 불립니다
49:17 But by many names, I am an algorithm. 하지만 많은 이름으로 불리는 하나의 알고리즘입니다
49:20 I am a black box. 저는 블랙박스입니다
49:31 [O'Neil] The value-added model for teachers was actually being used 교사들의 부가 가치 모델이 미국의 주 절반 이상에서
49:34 in more than half the states. 실제로 사용되고 있습니다
49:35 In particular, is being used in New York City. 그중에 특히 뉴욕시에서 사용되는데
49:37 I got wind of it because my good friend, who's a principal of New York City, 한 학교의 교장인 제 친구 덕분에 알게 됐죠
49:41 her teachers were being evaluated through it. 그곳 선생님들이 그걸로 평가받고 있었어요
49:43 She's actually my best friend from college. 이분은 대학 때 절친이었어
49:45 -Hey, Cathy. -Hey, guys. - 캐시야 - 반가워
49:47 We each other since we were 18, so, like, two years older than you guys. 18살 때부터 알았으니 너희보다 2살 많을 때였네
49:51 Amazing. 대단하네
49:55 And their scores through this algorithm that they didn't understand 그리고 이 알고리즘을 통해 나온 이해 안 되는 점수들은
49:58 would be a very large part of their tenure review. 정년 보장 대상 심사에서 큰 부분을 차지할 거였죠
50:02 [Kiri Soares] Hi, guys. Where are you supposed to be? 얘들아, 너희 어디 있어야 하지?
50:04 Class. 수업요
50:05 [Soares] I got that. Which class? 알아, 무슨 수업?
50:06 [O'Neil] It'd be one thing if that teacher algorithm was good. 그 교사 알고리즘이 좋으면 의미가 있겠죠
50:09 It was like better than random, but just a little bit. 랜덤보다는 낫지만 아주 약간이었어요
50:12 Not good enough. 충분하지 않았어요
50:13 Not good enough when you're talking about teachers getting 교사가 정년 보장 자격이 있느냐
50:16 or not getting tenure. 없느냐를 논하기에는요
50:18 And then I found out that a similar kind of scoring system 그리고 휴스턴에선 그와 비슷한 채점 시스템이
50:20 was being used in Houston to fire teachers. 교사를 해고하는 데에 쓰이고 있다는 걸 알았어요
50:26 [woman] It's called a value-added model. 부가 가치 모델이라고 불리죠
50:28 It calculates what value the teacher added 교사가 어떤 가치를 창출했는지 계산하는데
50:31 and parts of it are kept secret by the company that created it. 그 일부는 그걸 만든 회사가 비밀에 부치고 있어요
50:43 I did win Teacher of the Year, and ten years later, "조지 W. 부시 대통령 비욘세 놀스-카터" 처음 올해의 교사상을 받고 10년 후에
50:47 I received a Teacher of the Year award a second time. 두 번째로 올해의 교사상을 받았어요
50:51 I received Teacher of the Month. 이달의 교사상도 받으며
50:53 I also was recognized for volunteering. 봉사 활동을 인정받았죠
50:56 I also received another recognition for going over and beyond. 그리고 업무에서의 탁월성을 또 인정받았고요
51:01 I have a file of every evaluation 모든 평가 서류를 보관 중인데
51:04 and every different administrator, different appraiser, 관리자마다, 평가자마다 "산토스 씨, 중학교 교사"
51:08 excellent, excellent, exceeds expectations. '탁월', '기대를 뛰어넘음'이라고 평가했죠
51:11 The computer essentially canceled the observable evidence of administrators. 컴퓨터는 식별 가능한 관리자들의 증거를 삭제했습니다
51:18 This algorithm came back and classified me as a bad teacher. 이 알고리즘은 저를 좋지 않은 교사로 분류했죠
51:28 Teachers had been terminated. 교사들은 해고됐습니다
51:31 Some had been targeted simply because of the algorithm. 일부는 순전히 알고리즘 때문에 표적이 됐죠
51:35 That was such a low point for me 제겐 최악의 일이었습니다
51:39 that, for a moment, I questioned myself. 잠깐은 제 스스로를 의심했어요
51:45 That's when the epiphany 그때 깨달았죠
51:47 "This algorithm is a lie. '이 알고리즘은 거짓이다'
51:50 How can this algorithm define me? '어떻게 이 알고리즘이 나를 정의해?'
51:52 How dare it." '어떻게 감히'
51:54 And that's when I began to investigate and move forward. 그때부터 조사를 시작하며 털고 일어났죠
51:59 We are announcing that, late yesterday, 저희는 어제 오후 늦게
52:02 we filed suit in federal court against the current HISD evaluation. 현재의 HISD 평가에 대해 연방 법원에 소송을 제기했습니다
52:08 [Santos] The Houston Federation of Teachers 휴스턴 교사 연맹이
52:10 began to explore the lawsuit. 소송을 알아보기 시작했습니다
52:12 If this can happen to Mr. Santos, in Jackson Middle School, 이런 일이 잭슨 중학교의 산토스 선생에게 일어난다면
52:16 how many others have been defamed? 얼마나 더 많은 교사의 명예가 훼손됐겠어요?
52:19 And so we sued based upon the 14th Amendment. 그래서 수정 헌법 14조에 따라 소송을 제기했죠
52:23 It's not equitable. 이건 공정하지가 않아요
52:24 How can you arrive at a conclusion 결론에 도달해 놓고서 어떻게
52:27 but not tell me how? 경위를 말해 주지 않죠?
52:32 The battle isn't over. 싸움은 끝나지 않았습니다
52:34 There are still communities, there are still school districts 지금도 지역 사회들에서 교육구들에서
52:37 who still utilize the value-added model. 부가 가치 모델을 활용하고 있어요
52:40 But there is hope because I'm still here. 하지만 희망은 있어요 제가 아직 여기 있으니까요
52:45 So there's hope. 그러니까 희망이 있죠
52:52 Or in English. 영어로는?
52:54 -Demo -Democracy. Who has the power? - 민주… - 민주주의, 권력을 누가 가졌지?
52:58 -Us? -Yeah, the people. - 우리요? - 그래, 국민이야
53:00 The judge said that their due process rights had been violated 판사는 그 교사들의 적법 절차권이 침해됐다 했죠
53:04 because they were fired 누구도 이해할 수 없는
53:05 under some explanation that no one could understand. 어떠한 이유 때문에 해고됐으니까요
53:08 But they sort of deserve to understand why they had been fired. 그들은 왜 해고당하는지를 알 자격이 있어요
53:12 But I don't understand why that legal decision doesn't spread 하지만 그런 합법적인 결정이 왜 모든 알고리즘에까지 퍼지지 않는지 이해가 안 돼요
53:16 to all kinds of algorithms. 왜 모든 알고리즘에까지 퍼지지 않는지 이해가 안 돼요
53:17 Like, why aren't we using that same argument, 왜 우리는 같은 논거를 활용하지 않는 거죠?
53:20 that constitutional right to due process, 왜 헌법상의 적법 절차권으로
53:22 to push back against all sorts of algorithms 눈에 보이지 않는, 블랙박스인
53:25 that are invisible to us, that are black boxes, 눈에 보이지 않는, 블랙박스인 설명되지 않지만 중요한 알고리즘들을
53:28 that are unexplained but that matter? 설명되지 않지만 중요한 알고리즘들을 밀어내지 않는 거죠?
53:31 That keep us from like really important opportunities in our lives. 인생의 정말 중요한 기회를 막아버리는 것들을요
53:36 [female AI] Sometimes I misclassify and cannot be questioned. 때론 잘못 분류해도 이의를 제기당할 수 없습니다
53:40 These mistakes are not my fault. 그런 실수는 제 잘못이 아닙니다
53:44 I was optimized for efficiency. 저는 효율에 최적화됐습니다
53:48 There is no algorithm to define what is just. 정의가 뭔지 정의하는 알고리즘은 없습니다
53:55 [female newscaster] A state commission has approved a new risk assessment tool 주 위원회는 판사들이 판결에 활용할
53:59 for Pennsylvania judges to use at sentencing. 새 위험 평가 도구를 승인했습니다
54:01 The instrument uses an algorithm to calculate 이 장치는 알고리즘을 이용해
54:04 someone's risk of reoffending based on their age, gender, 나이, 성별, 전과 다른 범죄 이력에 기반해
54:07 prior convictions and other pieces of criminal history. 누군가의 재범 위험을 계산합니다
54:11 [O'Neil] The algorithm that kept me up at night was what's called recidivism risk algorithms. 저를 잠 못 들게 한 것은 재범 위험성 알고리즘이란 거예요
54:16 These are algorithms that judges are given 판사들이 피고들에게 감옥행 선고를 내릴 때
54:18 when they're sentencing defendants to prison. 판사들이 피고들에게 감옥행 선고를 내릴 때 사용할 수 있는 알고리즘들이죠
54:21 But then there's the question of fairness, which is, 하지만 공정성에 문제가 있어요
54:23 how are these actually built, these scoring systems. 그 채점 시스템은 실제로 어떻게 구축됐는지
54:26 Like, how are the scores created? 점수들은 어떻게 만들어졌나 말이죠
54:29 And the questions are proxies for race and class. 그리고 질문은 인종, 계급을 돌려 묻는 것들이죠
54:34 [woman] ProPublica published an investigation 프로퍼블리카는 위험 평가 소프트웨어에 대한
54:36 into the risk-assessment software, 연구 결과를 발표했습니다
54:38 finding that the algorithms were racially biased. 알고리즘들이 인종 편향적이라는 내용입니다
54:41 The study found that Black people were mislabeled with high scores 흑인들은 높은 점수로 잘못 매겨지고
54:45 and that white people were more likely to be mislabeled with low scores. 백인들은 낮은 점수를 받는 확률이 훨씬 많았습니다
55:08 I go into my probation's office and she tells me I have to report 보호 관찰 담당자에게 갔더니 제가 주 1회는 꼭 보고해야 한다고 했어요
55:12 once a week. 제가 주 1회는 꼭 보고해야 한다고 했어요
55:14 I'm like, "Hold up. Did you see everything that I just accomplished?" 그래서 물었죠, '제가 이뤄낸 거 보지 않았어요?'
55:17 Like, I've been home for years. I've got gainful employment. "라토냐 마이어스 범죄자 정의 운동가" '4년간 집에 있었고 벌이가 되는 일자리도 있어요'
55:21 I just got two citations, one from the city council of Philadelphia, '최근엔 표창장도 2개 받았어요' '하나는 필라델피아 시 의회에서 하나는 필라델피아 시장에게서요'
55:24 one from the mayor of Philadelphia. '하나는 필라델피아 시 의회에서 하나는 필라델피아 시장에게서요'
55:25 Like, are you seriously gonna put me on reporting every week? '하나는 필라델피아 시 의회에서 하나는 필라델피아 시장에게서요' '정말로 내가' '매주 보고해야 하나요? 왜요?'
55:29 For what? '매주 보고해야 하나요? 왜요?'
55:30 I don't deserve to be on high-risk probation. '저는 고위험 보호 관찰 대상이 될 이유가 없어요'
55:33 I was at a meeting with the probation department. 보호 관찰 담당 부서와 미팅을 했어요
55:35 They were just, like, mentioning that they had this algorithm 어떤 알고리즘에 대해 언급하더군요 "마크 훌딘 변호사"
55:40 that labeled people high, medium or low risk. 사람들의 위험성을 상, 중, 하로 매기는 거였죠
55:43 And so, I knew that the algorithm decided what risk level you were. 그렇게 해서 당신을 어떤 수준으로 분류했는지 알았어요
55:48 That educated me enough to go back to my PO 덕분에 저를 담당하는 사람에게 찾아가서 말했어요
55:50 and be like, "You mean to tell me you can't put into account 덕분에 저를 담당하는 사람에게 찾아가서 말했어요 '그럼 알고리즘의 결과를 상쇄할'
55:53 anything positive that I have done '내가 했던 그 어떤 긍정적인 것도'
55:56 to counteract the results of what this algorithm is saying?" '고려할 수 없다는 건가요?'
56:00 And she was like, "No, there's no way. This computer overrule 그랬더니 이랬죠 '절대 안 돼요' '컴퓨터가 판사의 분별력과 호소를 모두'
56:04 the discernment of a judge and appeal together." '컴퓨터가 판사의 분별력과 호소를 모두' '무효로 했어요'
56:08 And by labeling you high risk and requiring you to report in-person, 그리고 고위험군으로 분류돼 직접 보고를 함으로써
56:13 you could've lost your job, 당신은 일자리를 잃을 수 있고
56:15 and then that could have made you high risk. 그게 또 고위험군으로 가게 할 수 있죠
56:16 That's what hurt the most. 그게 가장 상처예요
56:18 Knowing that everything that I've built up to that moment, 이 순간까지 쌓아온 모든 것에도 불구하고
56:21 and I'm still looked at like a risk. 전 여전히 위험인물로 보이니까요
56:23 I feel like everything I'm doing is for nothing. 내가 하는 모든 게 헛되다는 기분이 들어요
56:36 [Buolamwini] What does it mean if there is no one to advocate 기술이 뭘 하고 있는지 인식하지 못하는 이들을
56:39 for those who aren't aware of what the technology is doing? 기술이 뭘 하고 있는지 인식하지 못하는 이들을 대변할 사람이 없다는 건 어떤 의미일까요?
56:44 I started to realize this isn't about 전 깨닫기 시작했어요 이건 내 아트 프로젝트가 내 얼굴을 감지하지 못하는 것과
56:48 my art project maybe not detecting my face. 이건 내 아트 프로젝트가 내 얼굴을 감지하지 못하는 것과 관련한 문제가 아니라
56:52 This is about systems that are governing our lives in material ways. 우리의 삶을 물질적인 방식들로 지배하는 시스템의 문제란 것을요
57:04 So hence I started the Algorithmic Justice League. 그래서 '알고리즘 정의 연맹'을 만들었어요
57:07 I wanted to create a space and a place where people AI의 사회적 영향에 관해 배울 수 있는 공간을
57:11 could learn about the social implications of AI. AI의 사회적 영향에 관해 배울 수 있는 공간을 사람들에게 만들어 주고 싶었죠
57:17 Everybody has a stake. Everybody is impacted. 누구나 관련이 있어요 누구나 영향을 받습니다
57:25 The Algorithmic Justice League is a movement, it's a concept, 알고리즘 정의 연맹은 하나의 운동이고 콘셉트이고
57:29 it's a group of people who care about making a future 사회적인 기술이 우리 모두를 위해 잘 작동되는
57:33 where social technologies work well for all of us. 미래를 만드는 것에 관심 있는 사람들의 모임이에요
57:42 It's going to take a team effort, people coming together, 팀으로서 함께하는 노력이죠 뜻을 합해서
57:46 striving for justice, striving for fairness and equality 이 자동화 시대에서의 정의와 공정함, 평등을 위해
57:51 in this age of automation. 싸우는 거예요
57:55 The next mountain to climb should be HR. 다음으로 오를 산은 인사 관리 부문이어야 해요
58:00 Oh, yeah. Absolutely. 맞아요, 그래야죠
58:01 There's a problem with Résumé algorithms 이력서 알고리즘에 문제가 있어요
58:06 or all of those matchmaking platforms are like, "Oh, you're looking for a job. 모든 연결 플랫폼들은 이렇죠 '당신은 일자리를 구하네'
58:10 Oh, you're looking to hire someone. '당신은 누굴 고용해야 하네'
58:11 We'll put these two people together." '우리 이 두 사람을 이어 주자'
58:13 How did those analytics work? 그런 분석은 어떻게 이뤄지죠?
58:15 [Buolamwini] When people talk about the future of work, 사람들은 일의 미래를 말할 때
58:18 they talk about automation without talking about the gatekeeping. 게이트 키핑에 관해선 말하지 않고 자동화에 관해서만 말하죠
58:21 Like who gets the jobs 그럼 그 일자리는 누구한테 가는데요?
58:23 -that are still there? -Exactly. 그럼 그 일자리는 누구한테 가는데요? 맞아요
58:25 Right, and we're not having that conversation as much. 그리고 그런 대화는 그만큼 안 해요
58:27 Exactly what I'm trying to say. 내 말이 정확히 그거죠
58:29 I would love to see three congressional hearings about this next year. 이것과 관련한 3번의 청문회를 내년에 보고 싶어요
58:33 -Yes. -[Buolamwini] To more power. - 네 - 더 강한 힘을 위하여
58:35 -To more power. -To more power. - 더 강한 힘을 위하여 - 위하여
58:36 [Buolamwini] And bringing ethics on board. Yes. - 그리고 윤리가 도모되길 바라며 - 네
58:39 -[Buolamwini] Cheers. -Cheers. - 건배 - 건배
59:05 [announcer] This morning's plenary address will be done by Joy Buolamwini. 오늘 오전 총회의 연설자는 조이 부올람위니입니다
59:10 She will be speaking on the dangers of supremely white data 극히 백인 편향적인 테이터와 코드화된 시선의 위험에 관해
59:13 and the coded gaze. 얘기 나눠 주실 겁니다
59:14 Please welcome Joy. 박수로 맞아주세요
59:23 [Buolamwini] AI is not flawless. AI는 완벽하지 않습니다
59:25 How accurate are systems from IBM, Microsoft and Face++? IBM, 마이크로소프트, 페이스++의 시스템들은 얼마나 정확할까요?
59:30 There is flawless performance for one group. 한 집단에 대해서는 완벽한 수행 결과를 보입니다
59:34 The pale males come out on top. There is no problem there. 창백한 남성들이 승자네요 그 집단엔 문제가 없습니다
59:39 After I did this analysis, I decided to share it with the companies 전 분석을 마친 후 그 회사들에 결과를 알려주기로 했어요
59:42 to see what they thought. 그들의 생각을 들어보려고요
59:44 IBM invited me to their headquarters. IBM은 저를 본사로 초대했어요
59:47 They replicated the results internally, 그들은 내부적으로 그 결과를 공유했고
59:50 and then they actually made an improvement. 그런 다음엔 실제로 개선했죠
59:53 And so, the day that I presented the research results officially, 제가 연구 결과를 공식적으로 발표한 그 날
59:57 you can see that, in this case, now 100% performance 보시는 것처럼 이 경우 100%라는 결과가
1:00:02 when it comes to lighter females, 밝은 피부의 여성 그룹에서 나왔습니다
1:00:05 and for darker females, improvement. 피부가 짙은 여성 그룹은 개선됐고요
1:00:08 Oftentimes, people say, "Well, isn't the reason you weren't detected 사람들이 가끔 이래요 '당신이 이런 시스템에서 감지 안 된 건'
1:00:13 by these systems 'cause you're highly melanated?" '심하게 까맣기 때문 아니에요?'
1:00:15 And, yes, I am. 네, 저 까맣습니다
1:00:16 Highly melanated. 심하게 까맣죠
1:00:18 But [chuckles] But the laws of physics did not change. 하지만… 하지만 물리 법칙은 변하지 않았어요
1:00:23 What did change was making it a priority 변한 건 그걸 우선시한다는 것과
1:00:25 and acknowledging what our differences are, 사람들의 차이점을 인정한다는 거죠
1:00:28 so you could make a system that was more inclusive. 그래서 더욱 포괄적인 시스템을 만들 수 있었어요
1:00:37 [Patric Tariq Mellet] What is the purpose of identification and so on? 신분 확인의 목적이 뭐죠?
1:00:40 And that is about movement control. 움직임을 통제하려는 겁니다 "패트릭 타리크 멜레트 아파르트헤이트 사학자"
1:00:44 People couldn't be in certain areas after dark, for instance. "패트릭 타리크 멜레트 아파르트헤이트 사학자" 예를 들어 사람들은 해가 지면 특정 지역에 못 갔어요
1:00:48 And you could always be stopped by a policeman arbitrarily. 그리고 언제든 무작위로 경찰의 검문을 받을 수 있었고요
1:00:51 We would, on your appearance, say, "I want your passport." 경찰은 외모를 보고 '여권을 보여주세요' 했죠
1:00:58 [Buolamwini] So, instead of having what you see in the ID books, 이제는 신분증을 확인하는 대신에
1:01:01 now you have computers that are going to look at an image of a face 컴퓨터를 이용해서 얼굴 이미지를 확인하고
1:01:05 and try to determine what your gender is. 성별을 구별하려고 하죠
1:01:07 Some of them try to determine what your ethnicity is. 어떤 것들은 인종도 판단하려고 하고요
1:01:10 -[Mellet groans] -And then the work that I've done, 그런데 제가 한 연구 결과
1:01:13 even for the classification systems that some people agree with, 일부 사람들이 동의하는 분류 시스템조차
1:01:17 they're not even accurate. 정확하지 않아요
1:01:18 And so, that's not just for face classification, 그러니 단지 얼굴 분류만 문제가 아니에요
1:01:22 it's any data-centric technology. 모든 데이터 중심 기술이 해당하죠
1:01:24 And so people assume, "Well, if the machine says it, it's correct." 사람들은 당연히 여겨요 '기계가 맞다 하면 맞는 거야'
1:01:28 -And we know that's not -Human are creating themselves - 우린 알죠, 그게… - 인간은 말 그대로
1:01:30 in their own image and likeness 자신들의 모습을 본따
1:01:32 -quite literally. -Absolutely. - 스스로를 만들죠 - 맞아요
1:01:33 Racism is becoming mechanized, robotized. 인종 차별주의는 기계화되고 자동화되고 있어요
1:01:36 -Yeah. -Absolutely. 그렇죠
1:01:51 Accuracy draws attention. 정확도는 주목을 끕니다
1:01:53 But we can't forget about abuse. 하지만 남용을 잊어선 안 돼요
1:01:58 Even if I'm perfectly classified, that just enables surveillance. 완벽히 분류된다고 하더라도 그건 감시를 가능하게 할 뿐이죠
1:02:20 LOOKING FOR THE PERSON LOAD DATABASE "데이터베이스 로딩"
1:02:21 CROSS-CHECK IN MULTIPLE DATABASES "데이터베이스 교차 확인"
1:02:22 CONFIDENCE: 93% - FAMILY NAME: WEI FORENAME: SU - GENDER: FEMALE "신뢰도: 93% 이름: 웨이 수, 성별: 여성"
1:02:23 [O'Neil] There's this thing called the social credit score in China. 중국에는 사회 신용 점수라는 게 있어요
1:02:27 They're sort of explicitly saying, 노골적으로 이걸 말하죠
1:02:29 "Here's the deal, citizens of China. We're tracking you. '이거예요, 중국 국민 여러분 우린 당신들을 추적하고 있어요'
1:02:33 You have a social credit score. '사회 신용 점수가 있죠?'
1:02:35 Whatever you say about the Communist Party will affect your score. '공산당에 대해 하는 모든 말은' '당신 점수에 영향을 미쳐요'
1:02:39 Also, by the way, it will affect your friends and your family's scores." '또한 당신의 친구들, 가족의 점수에도 영향을 미치고요'
1:02:43 And it's explicit. 그리고 명백합니다
1:02:44 The government who's building this is basically saying, "You should know 이걸 만드는 정부의 말은 이거죠
1:02:47 you're being tracked, and you should behave accordingly." '추적당한다는 걸 알고 그에 걸맞게 행동하라'
1:02:50 It's like algorithmic obedience training. 알고리즘 복종 훈련 같달까요?
1:03:11 I use facial recognition in many aspects of my life 저는 일상의 많은 부분에서 안면 인식을 이용해요
1:03:15 like when I go shopping in the supermarket, 예를 들어 슈퍼마켓에서 장을 볼 때나
1:03:16 entering my apartment complex and train station. 아파트 단지, 기차역에 들어갈 때요
1:03:23 Now all you have to do is scan your face. 얼굴 스캐닝만 하면 돼요
1:03:28 It's really convenient. 정말 편해요
1:03:38 With a social credit system, I think it will improve people's behavior. 사회 신용 시스템 덕분에 사람들의 행동이 개선될 것 같아요
1:03:45 On the train today, there was a broadcast saying 오늘 전철에서 이런 안내 방송이 나왔어요
1:03:49 those who lost credibility 신용을 잃는 사람은
1:03:53 will be restricted from using trains and planes. 열차, 비행기 이용에 제약이 있을 거라고요
1:04:03 The credit system and facial recognition complement each other. 신용 시스템과 안면 인식은 서로 보완적이에요
1:04:07 You will want to behave 우린 행동을 올바로 해야 돼요
1:04:09 because your face represents the state of your credit. 얼굴이 신용 상태를 바로 나타내니까요
1:04:22 If I'm going to make a new friend 새 친구를 만난다고 가정해 볼까요 그 사람의 신용 점수가 좋으면 더 신뢰하고 싶어지겠죠
1:04:26 and he has a very good credit score, then I will prefer to trust him. 그 사람의 신용 점수가 좋으면 더 신뢰하고 싶어지겠죠
1:04:30 We can choose to immediately trust someone based on their credit score 자신의 감각에 의존하는 것보다 신용 점수를 기반으로 하면
1:04:33 instead of relying on my own senses to figure it out. 누군가를 믿을지 말지 금세 판단할 수 있어요
1:04:39 This saves me time from having to get to know a person. 그 사람을 알아가기까지의 시간을 절약할 수 있죠
1:04:45 I think this is a really good aspect. 정말 좋은 측면이라고 생각해요
1:05:18 [Webb] We look at China and China's surveillance and scoring system 중국과 중국의 감시, 점수 시스템을 보며
1:05:22 and a lot of people say, "Well, thank goodness we don't live there." 많은 사람이 이러죠 '다행이다, 우린 거기 안 살아서'
1:05:28 In reality, we're all being scored all the time, 사실 우리 모두는 항상 점수가 매겨지고 있어요
1:05:31 including here in the United States. 미국에서도 마찬가지로요
1:05:33 We are all grappling, everyday, with algorithmic determinism. 알고리즘적 결정론과 우린 매일 씨름하고 있죠
1:05:37 Somebody's algorithm somewhere has assigned you a score, 누군가의 알고리즘이 어딘가에서 여러분에게 점수를 줬고
1:05:40 and as a result, you are paying more or less money 그 결과 여러분은 온라인에서 화장실 휴지를 살 때
1:05:44 for toilet paper when you shop online. 돈을 더 내기도, 덜 내기도 해요
1:05:46 You are being shown better or worse mortgages. 제시되는 모기지 조건이 더 좋기도, 나쁘기도 하고
1:05:50 You are more or less likely to be profiled as a criminal. 범죄자로 추정될 가능성이 더하기도, 덜하기도 하죠
1:05:54 In somebody's database somewhere, we are all being scored. 어딘가에 있는 누군가의 데이터베이스로 모두 점수가 매겨지고 있어요
1:05:58 The key difference between the United States and in China 미국과 중국의 가장 뚜렷한 차이는
1:06:01 is that China's transparent about it. 중국은 그 부분에서 투명하다는 점이죠
1:06:19 [Carlo over phone] Tell me what's happening. 무슨 일인지 얘기해 주세요
1:06:21 This young Black kid's in school uniform, got stopped as a result of a match. 교복 입은 흑인 아이가 대조 결과 때문에 잡혔어요
1:06:29 Took him down that street just to one side. 학생을 한쪽으로 데려가서
1:06:32 Like very thoroughly searched him. 몸을 샅샅이 수색했어요
1:06:36 It was all plainclothes officers as well. 사복 경찰들이고요
1:06:38 It was four plainclothes officers who stopped him. 사복 경찰 4명이 학생을 붙들었어요
1:06:46 Fingerprinted him. 지문을 채취했어요
1:06:49 After about, like, maybe ten, 15 minutes of searching and checking his details 약 15분가량 수색하고 세세한 것까지 확인하고 "그리프 페리스 빅 브라더 워치 영국"
1:06:54 and fingerprinting him, they came back and said it's not him. 지문을 채취한 후 돌아오더니 동일인이 아니래요
1:06:59 Excuse me, mate. 실례합니다
1:07:00 I work for a human rights campaigning organization. 나는 인권 운동 단체 소속으로
1:07:02 We're campaigning against facial-recognition technology. 안면 인식 기술을 반대하는 운동을 하고 있어요
1:07:06 We're campaigning against facial We're called Big Brother Watch. 빅 브라더 워치라는 단체입니다
1:07:08 We're a human rights campaigning organization. 인권 운동 단체예요
1:07:11 We're campaigning against this technology here today. 오늘 이곳에서 쓰이는 기술을 반대하는 운동을 해요
1:07:15 I know you've just been stopped because of that, 그것 때문에 방금 붙들렸죠?
1:07:17 but they misidentified you. 저들이 잘못 알아본 거고요
1:07:20 Here's our details here. 자세한 건 여기 있어요
1:07:22 [Ferris] He was a bit shaken. His friends were there. 학생은 충격을 받았고 친구들도 있었는데
1:07:24 They couldn't believe what had happened to him. 그 일 때문에 어안이 벙벙한 상태였죠
1:07:28 You've been misidentified by their systems, 저들의 시스템이 사람을 잘못 알아봤는데도
1:07:32 and they've stopped you and used that as justification to stop and search you. 그걸 이용해 학생을 멈춰 세우고 수색하는 걸 정당화했어요
1:07:35 But this is an innocent, young 14-year-old child 하지만 무고하고 어린 14살 소년이
1:07:37 who's been stopped by the police as a result of facial-recognition misidentification. 안면 인식 오인의 결과로 경찰의 저지를 당했습니다
1:07:47 [Carlo] So Big Brother Watch has joined with Baroness Jenny Jones 빅 브라더 워치는 제니 존스 남작과 뜻을 같이해
1:07:50 to bring a legal challenge against the Metropolitan Police 런던 경찰청과 내무성을 상대로
1:07:53 and the Home Office for their use of facial-recognition surveillance. 안면 인식 기술 감시 사용에 대한 법적 이의를 제기하기로 했죠
1:07:58 It was in about 2012, when somebody suggested to me 2012년경에 누군가가 넌지시 말했어요
1:08:01 that I should find out if I had files kept on me 경찰이나 보안 기관에 저에 관한 기밀 정보가 있는지
1:08:05 by the police or security services. And so, when I applied, 확인해 보라고요 그래서 신청해서 보니
1:08:08 I found that I was on the watch list for domestic extremists. 제가 국내 극단주의자 감시 리스트에 올라 있더군요
1:08:12 I felt if they can do it to me, when I'm a politician who 이런 생각이 들었죠 내 직업이 그들에게
1:08:16 Whose job is to hold them to account, 책임을 추궁하는 정치인인데 나한테 그런다면
1:08:19 they could be doing it to everybody. 누구에게도 그럴 수 있겠다고요
1:08:21 And it would be great if we can roll things back, 그리고 그걸 철폐하고 경찰이 사용하지 못하게 하면
1:08:24 and stop the Met from using this. 그리고 그걸 철폐하고 경찰이 사용하지 못하게 하면 좋을 거라고요
1:08:27 I think that's going to be quite a challenge. 무척 힘든 일일 것 같지만
1:08:30 I'm happy to try. 시도하게 돼서 기쁩니다
1:08:31 You know this is the first challenge 어디서도 이런 건 없었죠
1:08:33 against police use of facial recognition anywhere, 경찰의 안면 인식 사용에 도전하는 거요
1:08:36 but if we're successful, it will have an impact 하지만 우리가 성공하면 나머지 유럽 국가들이나
1:08:39 for the rest of Europe, maybe further afield. 더 먼 국가들에까지 영향을 미칠 거예요
1:08:43 So we've got to get it right. [laughs] 그래서 제대로 해야 해요
1:08:52 [Naik] In the UK, we have what's called GDPR, 영국에는 '일반 데이터 보호 규정'이란 게 있습니다
1:08:55 and it sets up a bulwark against the misuse of information. 정보의 오용을 막는 방호물 역할을 하죠
1:08:59 It says that the individuals have a right to access, control, 개인은 자신들의 데이터에 접근하고 통제할 권리와
1:09:03 and accountability to determine how their data is used. 어떻게 사용될지 정하는 책임이 있다고 명시돼 있어요
1:09:07 Comparatively, it's the Wild West in America. 그와 비교해 미국은 개척 시대 서부죠
1:09:10 And the concern is that America is 그리고 우려되는 것은 미국이 이런 기술 회사들의 고향이란 거예요
1:09:13 the home of these technology companies. 미국이 이런 기술 회사들의 고향이란 거예요
1:09:18 American citizens are profiled and targeted 미국 국민은 전 세계 어느 국가의 국민에게도 해당 안 되는 방식으로
1:09:21 in a way that probably no one else in the world is 미국 국민은 전 세계 어느 국가의 국민에게도 해당 안 되는 방식으로 분석되고 표적이 됩니다
1:09:25 because of this free-for-all approach to data protection. 데이터 보호에 대해 무질서한 접근을 하니까요
1:09:33 [Tufekci] The thing I actually fear 제가 정말로 두려워하는 건
1:09:36 is not that we're going to go down this totalitarian 1984 model 우리가 전체주의적인 '1984'형 모델로 간단 게 아닙니다
1:09:40 but that we're going to go down this quiet model 이런 조용한 모델로 간다는 거죠
1:09:44 where we are surveilled and socially controlled and individually nudged, 우리가 감시당하고 사회적으로 통제되고 개별적으로 슬쩍 설득되고
1:09:50 and measured and classified in a way that we don't see 측정되고 분류되는 모델 말이죠 우리 눈에는 안 보이지만
1:09:55 to move us along paths desired by power. 권력이 갈망하는 경로를 따라 우리를 움직이는 방식으로요
1:10:00 Though it's not what will AI do to us on its own, AI가 자력으로 우리에게 할 것은 아니에요
1:10:03 it's what will the powerful do to us with the AI. 권력자들이 AI를 이용해서 우리에게 할 것이죠
1:10:12 [male newscaster] There are growing questions about the accuracy 아마존 안면 인식 소프트웨어의 정확성에 대해
1:10:14 of Amazon's facial-recognition software. 의문이 점점 제기되고 있습니다
1:10:17 In a letter to Amazon, members of Congress raised concerns 아마존에 전한 서신에서 국회의원들은
1:10:19 of potential racial bias with the technology. 그 기술에 내재했을 수 있는 인종 편향성을 우려했습니다
1:10:22 [female newscaster] This comes after the ACLU conducted a test ACLU가 수행한 한 테스트의 결과로서
1:10:25 and found that the facial-recognition software incorrectly matched 그 안면 인식 소프트웨어는 국회의원 28명의 얼굴을
1:10:28 28 lawmakers with mug shots of people who have been arrested, 체포된 범법자들의 머그샷과 일치시키는 틀린 결과를 보였죠
1:10:32 and 11 of those 28 were people of color. 그 28명 중 11명은 유색인종이었습니다
1:10:35 Some lawmakers have looked into whether or not 일부 의원들은 아마존이 이 기술을
1:10:37 Amazon could sell this technology to law enforcement. 법 집행기관에 팔 수 있을지 들여다봤습니다
1:10:44 [automated voice over PA] Attention, please. 승객 여러분
1:10:46 This is a boarding call 탑승 안내 방송입니다
1:10:47 for Amtrak northeast regional train stopping at Washington Union Station. 암트랙 북동부 지역 열차가 워싱턴 유니언 스테이션에 들어오고 있습니다
1:10:52 [Buolamwini] Tomorrow, I have the opportunity to testify before Congress 내일은 안면 분석 기술을 정부가 사용하는 문제에 대해
1:10:56 about the use of facial-analysis technology by the government. 의회에서 입장 표명을 할 기회가 있어요
1:11:04 In March, I came to do some staff briefings. 3월에 스태프 브리핑을 하러 왔었어요
1:11:11 Not in this kind of context. 이런 맥락의 것은 아니었고요
1:11:15 Like, actually advising on legislation, that's a first. 입법 분야에 실질적인 조언을 하는 건 처음 있는 일이죠
1:11:22 We're going to Capitol Hill. What are some of the major goals 국회 의사당에 가는데 중요한 목표와
1:11:25 and also some of the challenges we need to think about? 생각해야 할 어려움은 뭘까요?
1:11:28 So, first of all 우선… "알바로 베도야"
1:11:30 the issue with law enforcement use of technology "조지타운 로스쿨 프라이버시&기술 센터 이사" 법 집행 기관이 기술을 사용할 때의 문제는
1:11:34 is that the positive is always extraordinarily salient 법 집행 기관이 기술을 사용할 때의 문제는 긍정적인 면이 항상 두드러진다는 거죠
1:11:37 -because law enforcement publicizes it. -[Buolamwini] Right. 법 집행 기관이 그걸 홍보하니까요 맞아요
1:11:39 And so, you know, we're going to go into the meeting, 우리가 그 회의에 참석하는데
1:11:41 and two weeks ago, the Annapolis shooter "클레어 가비 동 센터 선임 연구원" 2주 전에 아나폴리스에서 발생한 총격의 범인은
1:11:45 was identified through the use of face recognition. 안면 인식을 통해 밝혀졌어요
1:11:48 [Buolamwini] Right. 맞아요
1:11:48 And I'd be surprised if that doesn't come up. 분명 그 얘기가 나올 거예요
1:11:50 Absolutely. 물론이죠
1:11:52 Part of If I were you, what I would want to drive home 내가 당신이라면 이 회의에서 확실히 하고 싶은 건
1:11:55 going in this meeting is the other side of that equation, 내가 당신이라면 이 회의에서 확실히 하고 싶은 건 그 등식의 반대편 변에 관한 거예요
1:11:58 and making it very real as to what the human cost 그리고 당신이 확인한 문제들이 해결되지 않을 때
1:12:01 if the problems that you've identified, aren't remedied. 인간이 치를 비용이 무엇일지를 생생하게 전달하는 거고요
1:12:16 [Buolamwini] People who have been marginalized will be further marginalized 우리가 만들고 있는 기술이 편견을 퍼트리지 않게
1:12:19 if we're not looking at ways of making sure 확실히 할 수 있는 방법을 모색하지 않으면
1:12:22 the technology we're creating doesn't propagate bias. 부당하게 무시당해온 사람들은 더욱 무시당하게 될 겁니다
1:12:29 That's when I started to realize 그 부분에서부터 저는 깨닫기 시작했죠
1:12:31 algorithmic justice, making sure there's oversight 자동화 시대에 감독 역할을 하는
1:12:35 in the age of automation, 알고리즘 정의는
1:12:37 is one of the largest civil rights concerns we have. 가장 큰 시민권 문제 중 하나라는 것을요
1:12:44 [O'Neil] We need an FDA for algorithms. 알고리즘을 담당하는 연방 기관이 필요합니다
1:12:46 So, for algorithms that have the potential to ruin people's lives 그래서 사람의 인생을 망칠 수 있거나
1:12:49 or sharply reduce their options 그들의 자유, 생계, 재정 선택권을
1:12:51 with their liberty, their livelihood or their finances, 크게 줄일 수 있는 알고리즘들에 대해
1:12:54 we need an FDA for algorithms that says, 그 기관이 말해 줄 수 있어야 해요
1:12:57 "Hey, show me evidence that it's going to work. '이봐요, 그게 잘 작동할 거라는 증거를 대요'
1:13:00 Not just to make you money, but it's going to work for society. '당신 주머니 채우는 쪽이 아니라 사회를 위하는 쪽으로'
1:13:04 That it's going to be fair, that it's not going to be racist, '공정하고 인종 차별적이지 않고'
1:13:06 that's not going to be sexist, it's not going to discriminate '성 차별적이지 않고' '장애인을 차별하지 않는다는 증거 말입니다'
1:13:08 against people with disability status. '장애인을 차별하지 않는다는 증거 말입니다'
1:13:10 Show me that it's legal, before you put it out." '기술을 공개하기 전에 그게 합법적이란 걸 보여줘요'
1:13:13 That's what we don't have yet. 그런 기관이 아직 없어요
1:13:16 Well, I'm here because I wanted to hear 저는 오늘 이곳에
1:13:18 the congressional testimony of my friend Joy Buolamwini, 제 친구 조이 부올람위니와 ACLU, 그리고 여러 사람의
1:13:22 as well as the ACLU and others. 의회 증언을 듣고 싶어서 왔어요
1:13:24 One cool thing about seeing Joy speak to Congress 조이가 의회에서 말하는 걸 보면 감회가 새로울 것 같아요
1:13:27 is that, like, I met Joy on my book tour at Harvard Book Store. 조이를 만난 게 제가 북 투어로 하버드 서점에 갔을 때인데
1:13:32 And according to her, that was the day 조이 말에 의하면 그날
1:13:35 that she decided to form the Algorithmic Justice League. 알고리즘 정의 연맹을 결성하겠단 결심을 했다고 하거든요
1:13:41 [O'Neil] We haven't gotten to the nuanced conversation yet. 아직 깊은 논의는 이루어지지 않았지만
1:13:44 And I know it's going to happen 분명히 잘될 거예요
1:13:46 'cause I know Joy is going to make it happen. 조이는 해낼 거란 걸 아니까요
1:13:52 At every single level, bad algorithms are begging to be given rules. 모든 단계에서, 나쁜 알고리즘엔 규칙이 요구되고 있어요
1:14:04 -Hello, hello. -Hey. - 오셨어요? - 조이!
1:14:06 How are you doing? 잘 지냈어요?
1:14:07 -Wanna sneak in with me? -Yes. - 같이 들어갈래요? - 네
1:14:08 Let's do it. 해보자고요
1:14:10 2155. 2155
1:14:11 2155. 2155
1:14:22 Is there anything I can do to help? 내가 도울 일은 없어요?
1:14:24 You can always text me. 뭐든 문자 보내요
1:14:25 -Let's get pasta bites. -Yes! - 긍정의 기운만 주시면 돼요 - 물론이죠!
1:14:31 [Elijah Cummings] Today we are having our first hearing of this Congress 오늘 본 의회 청문회에서 처음으로 다뤄질 주제는
1:14:36 on the use of facial-recognition technology. 안면 인식 기술의 사용입니다
1:14:39 Please stand and raise your right hand, and I will now swear you in. 일어나서 오른손을 들어주세요 선서를 하시겠습니다
1:14:45 [Buolamwini] I've had to resort to literally wearing a white mask. 저는 그야말로 하얀 가면을 써야 했습니다
1:14:49 Given such accuracy disparities, I wondered how large tech companies 그런 정확성의 격차를 보며 대형 기술 회사들이 이런 문제를 어떻게 놓쳤나 의문이 들었죠
1:14:52 could have missed these issues. 대형 기술 회사들이 이런 문제를 어떻게 놓쳤나 의문이 들었죠
1:14:54 The harvesting of face data also requires guidelines and oversight. 얼굴 데이터를 수집하는 데에도 지침과 감독이 필요합니다
1:14:58 No one should be forced to submit their face data 그 누구도 자신의 얼굴 정보를
1:15:01 to access widely used platforms, economic opportunity or basic services. 널리 이용되는 플랫폼이나 경제 기회, 기본 서비스 접근을 위해 제출하도록 강요받아선 안 됩니다
1:15:06 Tenants in Brooklyn are protesting the installation 브루클린의 세입자들은 불필요한 안면 인식 출입 시스템을 설치하는 것에 항의하고 있습니다
1:15:09 of an unnecessary face-recognition entry system. 불필요한 안면 인식 출입 시스템을 설치하는 것에 항의하고 있습니다
1:15:12 There's a Big Brother Watch UK report that came out 영국 빅 브라더 워치의 한 연구 결과에 따르면
1:15:16 that showed more than 2,400 innocent people 2,400명의 무고한 사람들이
1:15:19 had their faces misidentified. 안면 인식에서 오인을 받았습니다
1:15:22 Our faces may well be the final frontier of privacy. 우리의 얼굴은 프라이버시의 마지막 영역일 것입니다
1:15:26 But regulations make a difference. 하지만 규정이 있으면 달라질 겁니다
1:15:28 Congress must act now to uphold American freedoms and rights. 의회는 미국인의 자유와 권리를 유지하기 위해 행동해야 합니다
1:15:32 Miss Buolamwini, I heard your opening statement 부올람위니 씨 모두 진술 잘 들었습니다
1:15:35 and we saw that these algorithms are effective to different degrees. 이 알고리즘들의 실효성 정도가 다양하다는 걸 알겠는데요
1:15:40 -So, are they most effective on women? -No. - 여성에게 가장 실효적인가요? - 아뇨
1:15:43 Are they most effective on people of color? 유색 인종에 가장 실효적인가요?
1:15:45 Absolutely not. 절대 아닙니다
1:15:46 Are they most effective on people of different gender expressions? 성 표현이 다른 사람들에게 가장 실효적인가요?
1:15:49 No, in fact, they exclude them. 아뇨, 그들은 사실 제외돼 있습니다
1:15:52 So what demographic is it mostly effective on? 그렇다면 어느 인구 집단에 가장 실효적이죠?
1:15:56 White men. 백인 남성입니다
1:15:57 And who are the primary engineers and designers of these algorithms? 이런 알고리즘들을 주도해서 만든 엔지니어, 설계자들은 누구고요?
1:16:01 Definitely white men. 그것도 물론 백인 남성이고요
1:16:03 So we have a technology that was created and designed by one demographic "알렉산드리아 오카시오코르테스 민주당, 뉴욕" 그러니까 한 인구 집단이 그 집단에만 가장 실효적인
1:16:09 that is only mostly effective on that one demographic 한 기술을 설계하고 만들어서
1:16:12 and they're trying to sell it and impose it 그걸 국가 전역에 판매하고
1:16:14 on the entirety of the country? 시행하려 한다고요?
1:16:20 When it comes to face recognition, the FBI has not fully tested FBI는 안면 인식 기술이 사용하는 시스템의 정확성을
1:16:22 the accuracy of the systems it uses, 완전히 테스트하지 않았는데도
1:16:25 yet the agency is now reportedly piloting Amazon's face-recognition product. 아마존의 안면 인식 제품을 시험적으로 사용 중이라고 합니다
1:16:29 How does the FBI get the initial database in the first place? FBI는 1차 데이터를 애초에 어떻게 확보하죠? "짐 조던 공화당, 오하이오"
1:16:33 [Neema Singh Guliani] So one of the things they do 그들의 방법 중 하나는
1:16:34 is they use state driver's license databases. 주 운전 면허증 데이터베이스 활용입니다
1:16:36 I think, you know, up to 18 states have been reportedly used by the FBI. 18개 주의 데이터를 FBI가 사용한다고 합니다 "네에마 싱 굴리아니 ACLU 법제실"
1:16:40 It is being used without a warrant and without other protections. 영장도 없이, 다른 방어책도 없는 상태에서 이용 중입니다
1:16:44 Seems to me it's time for a time out. Time out. 타임아웃 시간인 것 같군요 타임아웃
1:16:46 I guess what troubles me, too, 제게도 거슬리는 부분은
1:16:48 is just the fact that no one in an elected position 선출된 위치에 있는 사람 누구도
1:16:51 made a decision on the fact that These 18 states, I think the chairman said 결정하지 않았다는… 이 18개 주는 의장님 말씀으론
1:16:55 this is more than half the population in the country. 인구가 전국 인구의 반이 넘는데요
1:16:57 That is scary. 무섭습니다
1:16:59 China seems to me to be the dystopian path 중국은 이 시점에서 우리 사회가 받아들일 필요 없는
1:17:02 that needs not be taken at this point by our society. "제이미 애스킨 민주당, 메릴랜드" 반이상향의 길을 걷는 듯합니다
1:17:06 More than China, Facebook has 2.6 billion people. 중국 인구보다 페이스북 사용자가 26억 명으로 더 많아요
1:17:10 So Facebook has a patent where they say 페이스북은 이런 특허권이 있죠
1:17:12 because we have all of these face prints, we can now give you '우리는 페이스프린트를 보유한다' '소매업자인 당신들에게'
1:17:16 an option as a retailer '소매업자인 당신들에게'
1:17:17 to identify somebody who walks into the store, '가게에 오는 사람의 신원을 확인하는 선택권을 줄 수 있다'
1:17:20 and in their patent, they say we can also give that face 그리고 그들 말로는 그 특허권에 따라 그 얼굴에 신뢰도 점수도 줄 수 있다고 합니다
1:17:25 a trustworthiness score. 그 얼굴에 신뢰도 점수도 줄 수 있다고 합니다
1:17:26 Facebook is selling this now? 페이스북이 현재 그걸 팔고 있나요?
1:17:28 This is a patent that they filed. 그들이 신청한 특허예요
1:17:30 As in something that they could potentially do 그들이 가진 능력으로
1:17:33 with the capabilities they have. 앞으로 이런 일을 할 수도 있다는 거죠
1:17:35 So as we're talking about state surveillance, 그러니 국가 감시에 대해 얘기하는 동시에
1:17:37 we absolutely have to be thinking about corporate surveillance as well. 기업 감시에 대해서도 틀림없이 생각해야 합니다
1:17:44 I'm speechless, and normally I'm not speechless. 감격해서 말문이 막히네요 나 그런 사람 아니거든요
1:17:47 -Really? -Yeah. Yeah. - 그래요? - 네
1:17:49 All of our hard work, to know that has gone this far, 우리의 노고가 이런 결실을 맺었다니
1:17:52 it's beyond belief. 믿을 수 없어요
1:17:53 We never imagined that it would go this far. 여기까지 올 줄 꿈에도 몰랐어요
1:17:57 I'm really touched. I'm really touched. 가슴이 정말 벅차요
1:17:59 See, now you got me smiling. 덕분에 저도 웃음이 나네요
1:18:01 I want to show it to my mother. [chuckles] 엄마한테 보여주고 싶어요
1:18:05 Feels good. Feels really good. 기분 좋아요, 정말 좋아요
1:18:11 [Cummings] Hold on for a second. 잠깐만 기다려 봐
1:18:12 -Hey, very nice meeting you. -Very nice to meet you. - 안녕하세요, 정말 반가워요 - 저도 반가워요
1:18:15 You got my card. Anything happen, you let me know, please. 내 명함 받았죠? 무슨 일이 있으면 연락해요
1:18:18 I will. 그럴게요
1:18:22 [Ocasio-Cortez on recording] constitutional concerns about 안면 인식의 비합의적 사용에 관한
1:18:24 the non-consensual use of facial recognition. 헌법상의 문제를 제기한…
1:18:36 So what demographic is it mostly affecting? 그렇다면 어느 인구 집단에 가장 실효적이죠?
1:18:39 And who are the primary engineers and designers of these algorithms? 이런 알고리즘들을 주도해서 만든 엔지니어, 설계자들은 누구고요?
1:18:47 San Francisco is now the first city in the US 샌프란시스코는 미국 최초로
1:18:50 to ban the use of facial-recognition technology. 안면 인식 기술의 사용을 금지했습니다
1:18:52 [male newscaster] Somerville, Massachusetts 매사추세츠주 서머빌은
1:18:54 became the second city in the US 미국에서 안면 인식 사용을 금지한
1:18:56 to ban the use of facial recognition. 두 번째 대도시가 됐습니다
1:18:59 Oakland becomes the third major city to ban facial recognition by police, 오클랜드는 그 기술이 소수 인종을 차별한다며 경찰의 안면 인식 사용을 금하는 세 번째 대도시가 됐습니다
1:19:03 saying that the technology discriminates against minorities. 경찰의 안면 인식 사용을 금하는 세 번째 대도시가 됐습니다
1:19:07 At our last tenants' town hall meeting, we had the landlord come in 최근의 세입자 공개 회의에 건물주가 참석해서
1:19:13 and announced that he was withdrawing 안면 인식 소프트웨어를
1:19:15 the application for facial-recognition software in our apartment complex. 우리 아파트에 들이는 계획을 철회한다고 발표했어요
1:19:20 The tenants were excited to hear that. 세입자들은 무척 기뻐했고요
1:19:22 But the thing is that doesn't mean that down the road 하지만 문제는 지켜봐야 한단 거예요
1:19:26 that he can't put it back in. 없던 일로 할지는 몰라요
1:19:28 We've not only educated ourselves about facial recognition 우리는 안면 인식이란 것에 대해 배웠을 뿐만 아니라
1:19:32 and now a new one, machine learning. 새로운 것, 머신 러닝이란 것도 알게 됐어요
1:19:35 We want the law to cover all of these things. 우린 법이 이 모든 걸 다뤄주면 좋겠어요
1:19:37 -Right. -Okay? - 맞아요 - 그렇죠?
1:19:39 And if we can ban it in the state, 주에서 그걸 금지할 수 있다면
1:19:40 this stops them from ever going back and putting in a new modification. 그들이 말을 바꿔 변경된 것을 적용하는 걸 막을 수 있을 거예요
1:19:44 Got it. 알겠습니다
1:19:45 And then to push to get a federal ban. 그런 다음 연방 차원에서 금지하도록 압박하고요
1:19:48 Well, I will say, even though the battle is ongoing, 그 전쟁은 지금 진행 중이지만
1:19:51 so many people are inspired, and the surprise I have for you 정말 많은 사람들이 고무됐어요 제가 깜짝 선물을 하나 준비했는데
1:19:56 is that I wrote a poem in honor of this. 이걸 축하하며 쓴 시예요
1:20:00 Yay! 신난다!
1:20:01 -Oh, really? -Yes. - 그래요? - 네
1:20:02 All right, let's hear it. 좋아요, 들어볼게요
1:20:04 "To the Brooklyn tenants and the freedom fighters around the world, '브루클린 세입자와 전 세계의 자유의 전사 여러분'
1:20:08 persisting and prevailing against algorithms of oppression '대량 살상 수학 무기로 불평등을 자동화하는'
1:20:13 automating inequality through weapons of math destruction, '억압의 알고리즘에 맞서 버텨 이기고 있는 여러분'
1:20:17 we stand with you in gratitude. '저희는 감사하는 마음으로 여러분과 함께합니다'
1:20:21 The victory is ours." '승리는 우리의 것입니다'
1:20:25 Wonderful. 멋져요
1:20:28 We love you. We love you. 우린 조이를 사랑해요
1:20:36 Why get so many eggs? 달걀을 왜 이리 많이 먹어?
1:20:38 You're a cheegan. "매뉴얼 빅터 프레더릭 조이의 파트너" 자기 '치건'이잖아
1:20:41 What it means to be human is to be vulnerable. 인간으로 산다는 건 다칠 수 있다는 뜻입니다
1:20:45 Being vulnerable, there is more of a capacity for empathy, 그렇기에 더 공감할 수 있고
1:20:49 there's more of a capacity for compassion. 연민을 더 느낄 수 있어요
1:20:54 If there is a way we can think about that within our technology, 우리의 기술 안에서 그걸 생각할 방법이 있으면
1:20:57 I think it would reorient the sorts of questions we ask. 우리가 하는 질문의 종류는 그 방향이 달라질 거예요
1:21:11 [Tufekci] In 1983, Stanislav Petrov 1983년, 러시아 군인이었던
1:21:14 -[alarm blaring] -…who was in the Russian military 스타니슬라프 페트로프는
1:21:17 sees these indications that the US has launched nuclear weapons 미군이 소련에 핵무기를 발사했다는
1:21:23 at the Soviet Union. 표시를 봤습니다
1:21:26 So if you're going to respond, you have, like, this very short window. 그러니 대응까지 주어진 시간은 극히 짧았는데
1:21:30 He just sits on it. 그는 그냥 앉아 있었어요
1:21:31 He doesn't inform anyone. 아무에게도 알리지 않았죠
1:21:33 Russia, the Soviet Union, his country, his family, everything. 러시아에도 소련에도 그의 가족에게도요
1:21:36 Everything about him is about to die, 그와 관련된 모든 이들이 죽을 상황이었는데
1:21:39 and he's thinking, "Well, at least we don't go kill them all, either." 그는 생각했죠 '그래도 우리가 똑같이 죽이러 가면 안 돼'
1:21:43 That's a very human thing. 그건 아주 인간적인 판단이었죠
1:21:47 Here you have a story in which, if you had some sort of automated response system, 만일 자동 대응 시스템이 있었다면
1:21:51 it was going to do what it was programmed to do, 프로그래밍이 된 대로 명령을 수행했을 테고
1:21:53 which was retaliate. 그건 보복이었겠죠
1:21:57 Being fully efficient, 완전히 효율적이란 건
1:21:59 always doing what you're told, 항상 시키는 대로 하는 것이고
1:22:02 always doing what you're programmed is not always the most human thing. 프로그래밍이 된 대로 한다는 건 항상 인간적인 것을 한단 뜻이 아니에요
1:22:05 Sometimes it's disobeying. 가끔은 불복종합니다
1:22:07 Sometimes it's saying, "No, I'm not gonna do this," right? 가끔은 '아니, 안 해'라고 해요
1:22:10 And if you automate everything 모든 걸 자동화하면
1:22:12 so it always does what it's supposed to do, 그건 하게 돼 있는 걸 항상 해요
1:22:14 sometimes that can lead to very inhuman things. 때로는 굉장히 비인간적인 일로 이어지기도 합니다
1:22:19 [female AI] The struggle between machines and humans 의사 결정을 놓고 벌어진 기계와 인간의 싸움은
1:22:22 over decision-making in the 2020s continues. 의사 결정을 놓고 벌어진 기계와 인간의 싸움은 2020년대에도 이어집니다
1:22:26 My power, the power of artificial intelligence, 저의 힘, 즉 인공 지능의 힘은
1:22:30 will transform our world. 우리의 세계를 변형시킬 겁니다
1:22:33 The more humans share with me, the more I learn. 인간이 저와 많이 공유할수록 전 더 많이 배워요
1:22:38 Some humans say that intelligence without ethics is not intelligence at all. 일부 인간들은 윤리 없는 지능은 지능이 아니라고 하죠
1:22:44 I say trust me. 하지만 절 믿으세요
1:22:46 What could go wrong? 잘못될 게 뭐가 있어요?
728x90
728x90