카마스 | 00:02
Do you want a coffee?
커피 한 잔 드실래요?
────────────────────
머스크 | 00:03
Um...
음...
Sure, why not?
네, 좋죠.
Are we gonna be talking for a while?
우리 오늘 조금 길게 ( 한동안 )얘기할 건가요?
────────────────────
카마스 | 00:09
I hope we are.
그랬으면 좋겠네요.
────────────────────
머스크 | 00:10
Okay, good. Sure.
좋아요. 좋습니다.
Um...
음...
May I trouble you for a coffee?
커피 한 잔만 좀 부탁드려도 될까요?
────────────────────
카마스 | 00:16
Can we get another coffee?
커피 한 잔만 더 주실 수 있으세요?
────────────────────
머스크 | 00:18
Uh...
어...
Cappuccino, I guess.
카푸치노로 마실게요.
────────────────────
카마스 | 00:22
Are you a coffee drinker, Elon?
머스크 씨는 커피를 자주 마시는 편이세요?
────────────────────
머스크 | 00:23
Yeah, yeah.
네, 맞아요.
Yeah, I have a coffee once,
하루에 한 잔 정도 마셔요.
usually in the mornings.
보통 아침에요.
────────────────────
카마스 | 00:28
One-a-day kind of thing?
"하루 한 잔" 스타일이신가 보네요?
────────────────────
머스크 | 00:29
Yeah, pretty much.
네, 거의 그렇다고 볼 수 있죠.
────────────────────
카마스 | 00:35
You want to wait for it?
커피가 오면 시작할까요?
────────────────────
머스크 | 00:36
No, I'm good.
아뇨, 괜찮아요.
────────────────────
카마스 | 00:44
The first thing I must say is
일단 처음으로 말씀드리고 싶은 건,
you're a lot bigger and bulkier, muscular, than I would have thought you are.
머스크 씨 제가 생각했던 것보다 훨씬 덩치가 크고, 근육질이시네요.
────────────────────
머스크 | 00:51
Oh, stop, you're making me blush.
아이, 부끄럽게 만들지 마세요~
────────────────────
카마스 | 00:56
Really. Seriously.
근데 진짜예요, 진심으로요.
────────────────────
머스크 | 00:58
Yeah, I mean, look, on the Internet, I'm small, you know?
맞긴 해요, 제가 인터넷에선 제가 작게 나오니까요.
────────────────────
카마스 | 01:05
You're essentially...
사실상 머스크 씨가 생각하는...
What percentage of Internet is spent on Twitter?
트위터의 실사용자가 얼마나 된다고 생각하세요?
Is there a number to it? On X.
대략적인 숫자가 있나요? 'X'에서 말이죠.
────────────────────
머스크 | 01:14
Well, so, we have, like, about 600 million monthly users.
음, 월 사용자 수로 보면 한 6억 명 정도 돼요.
Although, it can spike up, if there's some major event in the world.
물론, 전 세계에 큰 사건이 터지면 확 튀어 올라요.
It can get up to, I don't know, 800 million or a billion,
그럴 땐 8억, 많을 땐 10억 명까지 올라가기도 하고요.
It can get up to, I don't know, 800 million or a billion,
그럴 땐 8억, 많을 땐 10억 명까지 올라가기도 하고요.
if there's some major event in the world, so...
세계적인 중대한 사건이 생길 때 말이죠.
I don't know, 250 to 300 million per week type of thing.
정확하게는 잘 모르겠는데, 일주일 기준으로 보면 한 2억 5천에서 3억 명 정도 될 거예요.
It's a pretty decent number.
꽤 괜찮은 숫자죠.
It tends to be readers, you know, people that read words.
그리고 X 사용자들은 대체로 글을 읽는 분들이고요. ( 영상을 보는 게 아닌 ) 텍스트를 '읽는' 사람들 말이에요.
You know, so...
그러니까 뭐...
────────────────────
카마스 | 01:49
Do you think that'll change?
그런 흐름이 앞으로 바뀔 거라고 보세요?
────────────────────
머스크 | 01:51
Um... yeah, I mean, there's...
음... 네, 그러니까...
There's certainly a lot of video on the X system.
분명히 X에도 영상은 이미 엄청 많긴 합니다.
But at this point increasing amounts of video.
지금도 영상 비중이 점점 더 늘어나고 있고요.
But I think where the X network is strongest is
그런데, 제가 생각하는 X라는 네트워크의 가장 큰 강점은
among people who think a lot and read a lot.
( 다른 네트워크들 가운데서 ) 생각을 많이 하고, '읽는' 사람들이 모인 곳이라는 겁니다.
You know, so, that's where it's gonna be strongest.
그게 앞으로도 X의 가장 큰 강점이 될 테고요.
Because we have words.
저희에게는 '글'이라는 게 있으니까요.
And, you know, so...
그래서...
Among readers, writers, and thinkers, I think X is number one in the world.
책을 읽고, 글을 쓰고, 사색하는 사람들 사이에선 X가 전 세계에서 1위라고 봐요.
────────────────────
카마스 | 02:28
As far as social media goes, the form factor,
소셜 미디어만 놓고 보면, 그런 X의 형식이라는 게,
if you had to wager a guess for tomorrow...
앞으로 어떻게 될지를 찍어서 내기를 걸어야 한다면...
how much is text, how much is video?
'글'은 얼마나 남고, '영상'은 얼마나 차지하게 될까요?
I've heard you speak about maybe voice and hearing being the next form of communication with AI.
저번에 머스크 씨가 AI랑 소통하는 다음 세대 방식은 '목소리'와 '듣기'가 될 거라고 말씀하신 걸 들었거든요.
What happens to X in its true form? How does it evolve?
앞으로 X 본연의 모습에서 어떻게 진화할 거라고 생각하고 계시나요?
────────────────────
머스크 | 02:52
Yeah, so, I do think most interaction is gonna be video in the future.
음, 저는 앞으로 대부분의 상호작용이 '영상' 기반이 될 거라고 봐요.
Most interactions are gonna be real-time video with AI.
상호작용 대부분은 AI와 실시간 영상으로 이루어지게 될 거고요.
So, real-time video comprehension, real-time video generation,
그러니까 '실시간 영상 이해', '실시간 영상 생성'이
that's gonna be most of the load.
X 전체 부하의 대부분을 차지하게 될 거예요.
And that's how it is for most of the Internet right now.
사실 지금 인터넷이 이미 그렇게 돌아가고 있고요.
Most of the Internet is video.
인터넷의 대부분은 '영상'이잖아요?
Text is a pretty small percentage.
'글'은 그에 비하면 비중이 꽤 작은 편이고요.
But the text tends to be higher value, generally.
그런데 '글'이 대체로 가치가 더 높은 편이에요.
Or more, it's more densely compressed information.
조금 더 정확히 말하자면, 정보의 '밀도'가 더 높게 압축된 정보인 거죠.
Yeah, so...
네, 그래서...
But if you say what is the most amount of bits generated and compute spent, it's certainly gonna be video.
만약 생성되는 데이터의 양이나, 거기에 쓰이는 연산 자원을 묻는다면, 비중이 높은 건 분명히 영상이 맞죠.
────────────────────
카마스 | 03:34
So, I used to be a shareholder of X, a very small one.
저도 예전에 X 주주였거든요, 아주 조금이지만...
And I got paid when you bought Twitter and you made it X.
머스크 씨가 트위터를 인수해서 X로 바꾸셨을 때, 주식을 정리하고 돈을 좀 받았거든요.
Happy decision? Glad you did it?
그 결정에 만족하시나요? "잘했다" 싶으신가요?
────────────────────
머스크 | 03:45
Yeah, yeah, I think it was important.
네, 네, 저는 그게 중요한 일이었다고 생각하거든요.
You know, I felt like Twitter was heading in or had gone in a direction that had more of a negative influence on the world.
그때 저는 트위터가 세상에 더 부정적인 영향을 미치는 방향으로 가고 있거나, 가버렸다고 느꼈거든요.
It was... I mean, of course, this depends on one's perspective.
물론... 뭐, 이건 보는 사람 관점에 따라 다르긴 합니다만,
Some people will say, well, actually, they liked the way it was, and now, they don't like it.
어떤 사람들은 "사실 예전 그 모습이 좋았는데, 지금은 좀 별로야"라고 말할 거예요.
But I think the fundamental thing was that...
근데 제가 봤던 근본적인 건 뭐였냐면요...
Twitter was amplifying...
트위터가 좀 증폭시키고 있었...
I would say, a fairly pretty far left by most people's standards in the world's ideology
세계 대부분 사람이 보기에도 이념적으로 상당히 꽤 많이 좌파 쪽에 치우쳐 있었던 거죠.
because of where it was based in San Francisco.
샌프란시스코에 기반을 두고 있었기 때문이기도 하고,
So, and then they actually suspended a lot of people on the right.
실제로 우파 쪽 사람 중 상당수의 계정을 정지시키기도 했고요.
So, from their perspective, even someone in the centre would be far right.
심지어 그들의 관점에서는 중도에 있는 사람도 극우처럼 봤을 거예요.
If you're far left, anyone in the centre is far right,
본인이 극좌 쪽에 서 있으면 중도에 있는 사람은 다 극우처럼 보이거든요.
because... It's just on the political spectrum,
왜냐하면... 정치적 성향으로 봤을 때,
they're just as far left as you get in the United States and in San Francisco.
미국, 특히 샌프란시스코 쪽을 사실상 갈 데까지 간 극좌라고 봤었거든요.
So, what I've tried to do is just restore it to be balanced and centrist.
그래서 제가 하려고 했던 건 그냥 트위터를 균형 잡힌 중도 쪽으로 다시 돌려놓는 거였어요.
So, there haven't been any left-wing voices that have been suspended or banned or de-amplified or anything like that.
그래서 저는 좌파 쪽의 목소리라고 해서 계정을 정지시키거나, 차단하거나, 노출을 줄이거나 한 적은 없습니다.
Now, some of them have chosen to just go somewhere else, but...
물론 일부는 사람들은 그냥 스스로 다른 플랫폼으로 옮겼지만요.
But at this point, the operating principle of the X system is to adhere to any country's laws,
어쨌든 지금 X 시스템이 따르는 운영 원칙은 어느 나라든 그 나라의 법을 지키는 것이고,
but not to put our thumb on the scale beyond the laws of a country.
그 나라 법이 정해 놓은 것 이상으로 저희가 몰래 판을 기울여서 한쪽을 돕지는 않는다는 겁니다.
────────────────────
카마스 | 05:20
When I think of social media...
제가 봤을 때 지금 소셜 미디어는...
────────────────────
머스크 | 05:24
Thank you.
고맙습니다.
────────────────────
카마스 | 05:26
When I think of social media, Elon,
제가 봤을 때 지금 소셜 미디어는 말이죠, 머스크 씨
I feel like even data suggests that the current incumbents seem to be losing traction amongst the youngest of audience.
데이터만 봐도 지금 주류로 있는 현직 플랫폼들이 가장 어린 세대한테는 점점 힘을 잃어가고 있다고 보이거든요?
────────────────────
머스크 | 05:38
Yeah.
네.
────────────────────
카마스 | 05:39
Even platforms like Instagram...
인스타그램 같은 플랫폼들도 마찬가지이고...
I mean, they're not exactly like Twitter, but platforms across the board.
물론, 트위터랑 똑같은 건 아니지만, 플랫폼 전반에 걸쳐 놓고 보자면요.
If one had to rework social media and build something bottom-up,
만약 소셜 미디어를 완전 밑바닥부터 다시 만든다고 한다면,
what do you think would work for the world of tomorrow?
앞으로의 세상에선 어떤 모델이 통할 거라고 보세요?
────────────────────
머스크 | 05:55
Well, I mean, I don't think that much about social media, to be frank.
글쎄요, 솔직히 말하면 제가 소셜 미디어에 대해 그렇게 많이 생각하진 않거든요.
I mean, it's... the mostly just wanna have something where there's...
그러니까, 제가 바라는 건 주로 그런 거예요.
in the case of X, kind of a global town square,
X로 치면, 전 세계가 같이 모여 얘기하는 일종의 큰 도시 광장 같은 곳이 되는 거죠.
where people can say what they wanna say with words, pictures, video...
사람들이 글과 사진, 영상으로 하고 싶은 말을 다 할 수 있는 곳이자,
where there's a secure messaging system.
거기에 안전한 보안 메신저 기능도 있는...
We've recently added the ability to do audio and video calls.
최근에 저희가 음성 통화랑 영상 통화 기능도 새로 넣었고,
So, really trying to bring the world together into a collective consciousness.
그렇게 X는 전 세계 사람들이 하나의 집단의식처럼 서로 연결되게 하려는 거죠.
That's, I guess, different from just saying, like, "What is the most dopamine-generating video stream that one could make?"
음, 그러니까 "어떻게 도파민을 가장 많이 터지게 만드는 영상 스트림을 만들 수 있을까?"하고 생각하는 거랑은 좀 다른 거예요.
Which, you know, I think it can be a little bit of brain rot, frankly.
솔직히, 그런 플랫폼들은 약간 '뇌 썩음'을 만드는 면이 있다고 보거든요.
You know, if you're just watching videos that just cause dopamine hits one after another, but lack substance,
그냥 계속 도파민만 계속 터지지만 별 알맹이 없는 영상들만 줄줄이 나오는 걸 보고 있으면,
then I think... those are not great. That's not a great way to spend time.
그건... 별로 좋지 않거든요. 시간을 쓰는 방식으로도 좋다고 생각 안하고요.
But I do think that's actually what a lot of people are gonna wanna watch.
근데 사실 그게 많은 사람이 보고 싶어 할 콘텐츠라고 생각하긴 해요.
So, if you say, like, total Internet usage,
그래서 인터넷 전체 사용량으로만 본다면,
it's gonna probably be optimising for, you know, neurotransmitter generation.
아마 결국은 "신경전달물질을 얼마나 잘 뽑아내느냐?"를 최적화하는 쪽으로 자연스레 방향이 맞춰지게 될 테고요.
Like, there's somebody getting a kick out of it.
누군가 그걸 보면서 큰 재미를 느끼도록 말이죠.
But it becomes like a drug type of thing.
점점 거의 마약같이 돼 버릴 겁니다.
But I'm not really after...
근데 제가 바라는 건 그런 쪽은 아니고요...
My goal is not to do that.
제 목표는 그런 쪽이 아니거든요.
I guess I could do that if I wanted to, but, um, I...
제가 원한다면 그렇게 할 수도 있겠지만, 근데 저는...
I just wanna really have a global platform that brings together...
그냥 진짜 전 세계를 하나로 모을 수 있는 글로벌 플랫폼을 만들고 싶어요.
Like I said, it becomes close to, sort of, a collective consciousness of humanity as possible.
아까 말했듯이, 인류의 집단의식이 어디까지 갈 수 있는지 거기에 최대한 가까이 다가가는 거죠.
And...
그리고...
one of the things that we've introduced, um, for example, is automatic translation.
그래서 저희가 도입한 기능 중 하나를 예를 들자면, '자동 번역'이 있어요.
Cause I think it would be great to bring together what people say in many different languages,
왜냐하면 서로 다른 언어로 말하는 사람들을 한데 모을 수 있으면 정말 좋겠다고 생각했거든요.
and... but automatically translated for the recipient.
그리고 서로 다른 언어로 쓰인 말들도, 받는 사람은 자동 번역된 상태로 볼 수 있게 하는 거죠.
So, you have the collective consciousness, not just of, say, people in a particular language group,
그러면 특정 언어권 사람들의 집단의식만 가지는 게 아니라,
but you have the thoughts of people in, you know, every language group.
모든 언어권 사람의 생각을 함께 담게 되는 거죠.
────────────────────
카마스 | 08:30
And why is that important, Elon?
그게 왜 그렇게 중요한 건가요 머스크 씨?
Collective consciousness, to have one platform?
하나의 플랫폼 안에 그런 집단의식을 만든다는 게요.
────────────────────
머스크 | 08:35
I guess...
글쎄요...
Yeah, why is that important?
왜 그게 그렇게 중요하냐 하면...
I guess it's... You could also say, like, why...
음, 그건 이렇게도 말할 수 있을 거 같은데요...
You know, if you consider humans, like, humans are composed of around 30 to 40 trillion cells.
인간이란 존재를 생각해 보면, 우리 몸은 대략 30조에서 40조 개 정도의 세포로 이루어져 있거든요.
You know, there's trillions of synapses in your mind.
그리고 우리 뇌 안에는 있는 시냅스도 수조 개나 있고요.
The why of it, I mean, I guess, it's just so we can increase... our understanding.
근데 "왜 그렇게 돼 있을까?" 그 이유를 생각해 보면, 결국 우리가 더 많이 이해하기 위해서라고 보거든요.
Increase our...
더 나아가서...
our understanding of the universe.
우주에 대한 이해를 넓히기 위해서라고 말이죠.
I guess I had this... sort of question about what's the meaning of life, you know?
저는 예전부터 이런 질문을 했던 거 같아요. "삶의 의미가 뭘까?"하는...
Like why... why is anything important?
"왜… 애초에 뭐라도 중요하다고 할 수 있는 걸까?"
You know, why are we here?
"우리는 왜 여기에 있는 거지?"
What's the origin of the universe? What is the end?
"우주의 기원은 뭐였고, 또 그 끝은 어떤 모습일까?"
What are the questions that we don't even know to ask?
"우리가 애초에 질문으로 떠올리지도 못하는 질문들은 또 뭐가 있을까?"
And probably the questions we don't even know to ask are the most important ones.
어쩌면 우리가 떠올리지도 못하는 그런 질문들이 가장 중요한 질문일 수도 있잖아요?
So, I'm just trying to, I guess, understand what's going on.
그래서 저는 그냥, 이 세상에서 무슨 일이 일어나고 있는지 이해해 보려고 하는 거죠.
What is going on in this reality?
"이 현실에서 도대체 무슨 일이 벌어지고 있는 걸까?"
Is this reality?
"이게 정말 현실이 맞긴 한 가?"
────────────────────
카마스 | 10:27
And where did you get when you asked, "What is the point of life?"
그럼, 그 "삶의 의미가 뭘까?"하는 질문을 스스로 던졌을 때, 어떤 결론에 도달하셨나요?
────────────────────
머스크 | 10:33
Yeah, so, I...
그러니까, 음… 저는...
I came to the conclusion that...
결국 이런 결론에 도달했죠.
which is somewhat, in the Douglas Adams Hitchhiker's Guide to the Galaxy school of thought, which is...
더글러스 애덤스의 <은하수를 여행하는히치하이커를 위한 안내서> 식의 사고방식이라고 할까요?
Yeah, you know, he sort of...
네, 더글러스 애덤스가 말하고자 했던 건...
Hitchhiker's Guide to the Galaxy is like a book on philosophy disguised as humour.
<은하수를 여행하는히치하이커를 위한 안내서>는, 유머로 위장해 둔 철학서에 가깝거든요.
────────────────────
카마스 | 10:54
Yeah.
맞아요.
────────────────────
머스크 | 10:55
And...
그리고...
That's where you get the... you know, Earth turns out to be this computer to understand, to get to figure out the answer of the meaning of life.
거기서 보면, 지구는 사실 '삶의 의미'에 대한 답을 알아내기 위해 만들어진 컴퓨터로 나오잖아요?
And it comes up with the answer of 42.
그리고 그 컴퓨터가 떠올려서 뱉어낸 답이 42였고,
But then, it's like, "What does 42 mean?"
그다음에, "아니, 42가 대체 뭔데?"하고 다시 묻고요.
And it turns out, well, actually, the hard part is the question, not the answer.
결국 알고 보니 진짜 어려웠던 건 애초에 "어떤 질문을 던져야 하느냐?"였어요. '답'을 찾는 게 아니라요.
And for that, you need a much bigger computer than Earth.
그리고 그 '질문'을 찾으려면 지구보다 훨씬 더 큰 컴퓨터가 필요하다고 나오고요.
So, basically, what Douglas Adams was saying is that we actually don't know how to frame the questions properly.
그러니까 더글러스 애덤스가 말하고 싶었던 건, 우리는 사실 질문을 제대로 어떻게 짜야 할지조차 모른다는 거였어요.
And so, I think by expanding the scope and scale of consciousness,
그래서 저는 의식의 범위와 규모를 넓혀 나가다 보면,
we can better understand what questions to ask about the answer that is the universe.
우주라는 '답'을 두고, 우리가 어떤 질문을 던져야 하는지 더 잘 이해하게 될 거라고 보는 거죠.
────────────────────
카마스 | 11:39
Do you believe the collective consciousness of society...
사회 전체의 집단의식이라는 걸 생각해 보면요…
You know, when I was watching this movie recently called the Gladiator.
제가 최근에 '글래디에이터'라는 영화를 다시 보고 있었거든요.
Russell Crowe. Have you seen it?
러셀 크로우가 나오는 그 영화요. 혹시 보셨나요?
────────────────────
머스크 | 11:51
Yeah, yeah.
네, 네.
────────────────────
카마스 | 11:53
In Gladiator, in Rome, when people are fighting, and the crowd is cheering when people kill each other...
글래디에이터 영화를 보면, 로마 경기장에서 싸우고, 누가 누굴 죽이면 관중들이 막 환호하잖아요?
the collective is very much like the mob.
그 집단이라는 게 거의 폭도에 가까운 모습의 군중이더라고요.
It doesn't have nuance in its opinion, per se.
집단이라는 것 그 자체로는, 내리는 의견이나 판단 속에 섬세한 뉘앙스가 잘 없죠.
────────────────────
머스크 | 12:13
That's this particular kind of mob. I mean, they're sort of going there to see people kill each other, you know?
그건 그 나름의 특정한 종류의 군중인 거죠. 애초에 사람들 죽이는 걸 보러 가는 사람들이니까요.
────────────────────
카마스 | 12:19
Do you suspect the society we live in today is very different?
그럼, 지금 우리가 사는 사회는 그때랑 많이 다르다고 보세요?
────────────────────
머스크 | 12:22
We don't, generally... at this point, we don't... you know, go and watch people kill each other.
적어도 지금은… 일반적으로 사람을 서로 죽이는 걸 보러 경기장에 가서 구경하진 않잖아요?
────────────────────
카마스 | 12:31
Maybe some kind of euphemism of that.
뭐, 그걸 좀 완곡하게 표현해 놓은 버전일 수도 있으니까요.
────────────────────
머스크 | 12:34
Sports, I suppose.
글쎄요, 아마 스포츠 같은 거겠네요?
So, people do sports without where teams attempt to defeat each other,
팀끼리 서로 이기려고 치열하게 싸우지만,
but minus the death.
거기에 죽음이라는 요소만 빠진...
Just going back to the consideration of a human.
다시 인간이라는 존재 자체로 돌아가서 생각해 보면요,
We all started out as one cell, but now, we are...
우리 모두 처음엔 단 하나의 세포로 시작했지만, 지금은...
over 30 trillion cells.
30조 개가 넘는 세포가 됐잖아요?
But I think most people feel like they're one body.
그런데도 대부분의 사람은 자기 자신을 하나의 몸이라고 느끼고요.
Like, you know, usually, your right hand's not fighting your left hand type of thing, you know?
예를 들어 오른손이 왼손이랑 싸운다거나 하는 그런 일은 보통 없잖아요?
They just sort of cooperate.
그냥 자연스럽게 서로 협력하면서 움직이는 거죠.
Your mind is...
우리 정신도...
you know...
그러니까...
just a vast number of neurons.
결국엔 막대한 뉴런들의 집합인데,
But most of the time, it doesn't feel like there's, you know, a trillion voices in your brain. Hopefully not.
보통은 머릿속에서, 조 단위의 목소리가 떠드는 것 같지도 않고요. 부디 아니었으면 좋겠고요.
So, there's clearly more that happens when you have trillions of cells working as a cellular collective than, say, one cell.
그러니까 분명히, 세포 하나만 있을 때보다 수조 개의 세포가 하나의 집단으로 같이 움직일 때 훨씬 더 많은 일이 벌어지는 거예요.
Or a small, you know, small multicellular creature.
아주 단순한, 작은 다세포 생물일 때 보다도요.
There's clearly something different that happens.
분명히 뭔가 다른 게 일어나는 거죠.
Like, you can't talk to a bacteria, you know? It's very silent.
예를 들어 박테리아랑은 대화할 수 없듯이요. 걔네는 그냥 아무 말이 없죠.
They just sort of wiggle around, and...
그냥 이리저리 꿈틀거리기만 하고...
From their perspective, I don't know. I just thought of what is life like from the perspective of an amoeba, you know?
그들로선 세상이 어떻게 보일지, 잘 모르겠어요. "아메바 관점에서 보면 인생이 어떤 느낌일까?" 하는...
But I know you can't talk to an amoeba. Like, they don't talk back.
그래도 확실한 건, 아메바랑은 말을 섞을 수가 없다는 거예요. 답해주질 않으니까요.
But you can talk to humans.
근데 인간이랑은 대화할 수 있잖아요?
So, there's just something, obviously, qualitatively fundamentally different for humans.
그러니까 인간이라는 존재에는 분명히 질적으로, 근본적으로 남다른 무언가가 있어요.
Once you have a large number of cells, and, you know, sufficiently large brain type of thing,
세포 수가 엄청나게 많아지고, 또 충분히 큰 뇌까지 갖추게 되면,
there's... you can now talk to humans.
그때부터는 인간이랑 대화할 수 있게 되는 거죠.
And they can say things, they can produce things.
말할 수도 있고, 뭔가를 만들어 낼 수도 있겠고요.
But bacteria are not gonna produce a spaceship, for example.
근데 박테리아가 우주선을 만들진 못하잖아요? 예를 들면.
But humans can.
근데, 인간은 할 수 있죠.
So I think there's something qualitatively different that also happens when there's a collection of humans.
그래서 저는, 사람이 모여서 하나의 집단이 되면 분명히 질적으로 다른 뭔가가 일어난다고 생각해요.
In fact, it's safe to say that a single human cannot make a spaceship. I cannot make a spaceship by myself.
사실 이렇게 말해도 과언이 아닌 게, 인간 한 명이 혼자서 우주선을 만들 수는 없어요. 저 혼자 힘으로는 우주선을 못 만듭니다.
But with a collection of humans, we can make spaceships.
하지만, 사람이 집단으로 모이면 우주선을 만들 수 있죠.
So, there's something, obviously, qualitatively different about a collection of humans.
그러니까, 사람들 집단이라는 건 분명히 질적으로 다른 뭔가를 갖고 있다는 겁니다.
In fact, it would be impossible for me to learn all of the areas of expertise.
애초에 제가 필요한 모든 전문 지식을 전부 다 익힌다는 건 불가능하거든요.
There wouldn't be enough time in one lifetime to even learn all the things before I was dead.
한 사람의 평생으로는 죽기 전에 그 모든 걸 다 익힐 시간 자체가 모자랄 테니까요.
So, you really fundamentally have to have a collection of humans to make a rocket.
그래서 로켓 하나를 만들려면, 근본적으로 사람들의 집단이 필요할 수밖에 없습니다.
Then, I think there are probably some other scaling... qualitative scaling things that happen when you have groups of humans.
그리고 사람들 집단이 되면, 규모가 커지면서 질적으로 확장되는 그런 변화들도 아마 일어나는 것 같아요.
And then, if the quality of the interaction, or the quality of the information flow...
거기에 상호 작용의 질, 정보가 오가는 질까지 좋아진다면...
the better it is, the more the human collective will achieve.
그게 좋아질수록, 인간 집단이 해내고 이루어 낼 수 있는 일도 훨씬 더 커지는 거죠.
And, like I said, I'm just curious about the nature of the universe.
그리고 아까 말했듯이, 제가 그냥 이 우주의 본질이 어떤지 궁금한 사람이기도 하고요.
And I think if we... It's safe to say, like, if we increase the scope and scale of consciousness,
이렇게 말해도 될 것 같은데, 만약 우리가 의식의 범위와 규모를 넓혀 간다면,
we're much more likely to understand the nature of the universe than if we reduce it.
그걸 줄일 때보다 우주의 본질을 이해할 가능성이 훨씬 더 커질 거라고 봅니다.
────────────────────
카마스 | 16:12
Is that a bit like spirituality?
그게 약간 '영성' 같은 건가요?
A lot of people talk to me about spirituality.
저한테 '영성' 이야기를 하는 사람들이 진짜 많거든요?
────────────────────
머스크 | 16:17
Right.
그런가요?
────────────────────
카마스 | 16:18
I still don't know what it actually means.
근데 저는 아직도 그게 정확히 무슨 뜻인지 모르겠어요.
Like, I keep asking them, "What do you mean?"
그래서 제가 계속 물어봐요. "대체 그게 정확히 무슨 뜻이에요?"하고 말이죠.
────────────────────
머스크 | 16:22
Yeah. "What do you mean?"
ㅋㅋ "도대체 그게 무슨 말인데요?"
I mean, a lot of people have spiritual feelings.
음, 많은 사람이 영적인 느낌을 느끼잖아요?
────────────────────
카마스 | 16:27
Right.
그렇죠.
────────────────────
머스크 | 16:29
And I wouldn't try to deny that those spiritual feelings are real to them.
저는 그 사람들이 느끼는 영적인 감정들을 그들에게는 실재한다는 걸 굳이 부정하려고 하지는 않아요.
But it's...
근데 그게...
It doesn't entirely translate. Just because somebody else has a spiritual feeling doesn't mean that I would have that spiritual feeling.
저한테 완전히 그대로 전달되진 않잖아요? 누군가 어떤 영적인 체험을 했다고 해서, 제가 똑같이 그걸 느끼는 건 아니니까요.
You know, I tend to be kind of physics-pulled, which is, like, if something has predictive value, then...
저는 좀 물리학 쪽에 끌리는 편이라, 어떤 뭔가가 예측치를 가지고 있다면...
I'll pay more attention to it than if it doesn't have predictive value.
예측치가 없을 때보다 훨씬 더 주의를 기울이게 돼요.
────────────────────
카마스 | 17:00
Right.
그렇군요.
────────────────────
머스크 | 17:01
So, you know, physics, I would say, is the study of that which has predictive value.
그래서 저는 물리학이라는 건 예측치를 가진 것들을 연구하는 학문이라고 말할 수 있을 것 같네요.
I think it's a pretty good definition.
꽤 괜찮은 정의라고 생각해요.
────────────────────
카마스 | 17:10
My primary job, Elon, is a stockbroker and stock investor.
머스크 씨, 제 주 본업이 주식 브로커이자, 투자자거든요.
────────────────────
머스크 | 17:14
Okay.
그렇군요.
────────────────────
카마스 | 17:15
There is no predictive value. Nobody knows what will happen tomorrow.
투자 세계에는 예측치라는 게 없어요. 내일 무슨 일이 일어날지 아무도 모르거든요.
────────────────────
머스크 | 17:18
Well, but I think you can generally say, you know, that...
글쎄요, 그래도 일반적으로 이렇게 말할 수 있지 않을까요...?
If it's long-term for a company, then
어떤 회사를 장기 관점에서 본다면,
you can say, like, "Do you like the products or services of that company?
이런 질문을 해볼 수 있죠. "내가 저 회사의 제품이나 서비스를 좋아하나?"
And is it likely to... do you like the product roadmap?
"그리고 앞으로도 계속 좋을 것 같은가, 그 회사의 제품 로드맵이 마음에 드는가?"
Do you like... It seems like they make great products and they're likely to make great products in the future." If that's the case,
"지금도 좋은 제품을 만들고 있고, 앞으로도 좋은 제품을 계속 만들어낼 것 같다"라고 느껴진다면,
then I would say that's probably a good company to invest in.
저는 아마 그 회사를 투자하기 좋은 회사라고 볼 거 같아요.
And I think you also want to believe in the team.
그리고 그 회사 팀을 믿을 수 있어야 한다고도 보는데,
So if you're like, "Well, that's a talented and hardworking team,
"아, 이 회사는 유능하고 열심히 일하는 팀이 있다"라고 느껴지고,
they make good products today,
"지금도 좋은 제품을 만들고 있고,"
they seem to be still motivated to make things in the future."
앞으로도 계속 뭔가를 만들겠다는 동기가 살아 있는 것 같다"라고 느껴진다면,
Then I'd say that's a good company to invest in.
그렇다면 저는 그 회사는 투자할 만한 좋은 회사라고 말하겠습니다.
────────────────────
카마스 | 18:04
Fair point.
그 말도 일리가 있네요.
────────────────────
머스크 | 18:05
Yeah, and now, that...
네, 그리고...
That won't solve for the daily fluctuations which happen, and, sometimes, are pretty extreme.
그렇다고 해서 그 회사에 매일 일어나는 주가 변동, 가끔 일어나는 꽤 극단적인 변동까지 없어지는 건 아니지만,
But over time, that is the right way to invest in stocks.
하지만 긴 안목으로 본다면, 그게 주식 투자에 있어서는 올바른 방식이라고 봅니다.
Because a company is just a group of people assembled to create products and services.
왜냐하면 회사라는 건 결국, 제품과 서비스를 만들기 위해 모인 사람들의 집단일 뿐이니까요.
So you have to say, "Well, what other... How good are those products and services?
그래서 이렇게 질문해야 하는 거죠. "그 회사 제품과 서비스는 실제로 얼마나 좋은가?"
Are they likely to continue to improve in the future?" If so, then you should buy the stock of that company
"앞으로도 계속 향상될 가능성이 있는가?" 만약 그렇다면, 그 회사 주식을 사야 하는 거고,
and then don't worry too much about the daily fluctuations.
그다음에는 매일 일어나는 주가 변동은 너무 신경 쓰지 않는 게 좋죠.
────────────────────
카마스 | 20:11
What's got you most excited now, Elon?
머스크 씨는 요즘 뭐가 제일 재밌으신가요?
in terms of all that you're building? You're doing so much.
지금 하고 계신 것 중에서요. 워낙 많은 걸 하고 계시잖아요?
So let me just preface and contextualize who is watching this.
일단, 어떤 분들이 이걸 보시는지 간단히 배경 설명을 해드리자면,
Our audience is largely wannabe entrepreneurs in India.
저희 시청자는 대부분 인도에 있는 예비 창업가들이에요.
────────────────────
머스크 | 20:28
Okay.
그렇군요.
────────────────────
카마스 | 20:29
Really ambitious, really hungry,
야망도 크고, 갈증도 크고,
want to take the risk and build something.
위험을 감수해서라도 뭔가를 만들어 보고 싶어 하는 분들이죠.
And I feel like all of us have so much to learn from you
그리고 저를 포함한 모든 그런 예비 창업가들은 머스크 씨를 통해 배울 게 정말 많다고 생각하고요.
because you've done it so many times over in so many different domains.
정말 많은 길을 걸어오셨으니까요. 그것도 아주 다양한 분야에서.
────────────────────
머스크 | 20:43
Yeah.
맞습니다.
────────────────────
카마스 | 20:44
So, we will speak to them today, and I will try and center all my questions in that direction
그래서 오늘은 그런 분들과 이야기를 나눈다는 생각으로 제 모든 질문도 그 방향에 맞춰서 해 보겠습니다.
so they can take advantage of this conversation and maybe start, take a chance and build something.
저희 대화를 최대한 활용해서 어쩌면 뭔가를 시작해 보고, 만들어 볼 수 있도록 말이죠.
────────────────────
머스크 | 20:56
Okay, sure.
좋습니다, 그렇게 하시죠.
Yeah, I guess the most important thing to do is just...
음, 제 생각에 가장 중요한 건 그냥...
make useful products and services.
유용한 제품과 서비스를 만드는 거예요.
Yeah.
네.
────────────────────
카마스 | 21:13
Which one of all the products and services that you're building has got you most excited today?
머스크 씨 께서 만들고 계신 여러 제품과 서비스들 가운데서 요즘 특히 가장 재밌는 건 어떤 건가요?
────────────────────
머스크 | 21:22
Well, I think that there's increasingly a convergence, actually, between SpaceX and Tesla and xAI.
음, 사실 스페이스X랑 테슬라, 그리고 xAI 사이에 점점 하나로 모이는 수렴의 흐름이 생기고 있다고 느껴요.
In that, if the future is solar-powered AI satellites, which it pretty much needs to be in order to...
미래가 태양광 기반 AI 위성의 시대가 된다고 보면요, 그리고 사실 그렇게 될 수밖에 없는데...
In order to harness a non-trivial amount of the energy of the sun,
태양 에너지의 의미 있는 비율을 진짜로 활용하려면,
you have to move to solar-powered AI satellites in deep space...
깊은 우주에서 운용되는 태양광 기반 AI 위성 쪽으로 옮겨 가야만 하거든요.
which, somewhat, is a confluence of Tesla expertise and SpaceX expertise.
그게 어느 정도는 테슬라가 가진 기술과 스페이스X의 기술이 합쳐지는 지점이기도 하고요.
And xAI on the AI front, so...
그리고 AI 쪽에서는 xAI가 있는... 그래서,
it does feel like, over time, there's somewhat of a convergence there.
시간이 갈수록 그 셋이 점점 한 방향으로 어느 정도 수렴해 가는 느낌이 있어요.
But all the companies are doing great things.
뭐, 각 회사가 다 정말 멋진 일들을 해내고 있고,
Very proud of the teams, they do great work.
각 팀에 대해서도 정말 자랑스럽게 생각해요. 정말 훌륭한 일을 해내고 있거든요.
So, we're making great progress with Tesla on the autonomous driving.
테슬라 쪽에선 자율주행에서 큰 진전을 이루고 있고,
I don't know if you've tried the self-driving?
혹시 자율주행 써 본 적 있으세요?
Have you tried it?
직접 한 번 해보셨어요?
────────────────────
카마스 | 22:20
I've tried it in the Waymo, not in the Tesla.
웨이모 꺼는 해봤는데, 테슬라는 아직 못 해봤어요.
────────────────────
머스크 | 22:22
Yeah, it's worth trying.
한 번 경험해 볼만해요.
We actually have it here in Austin. So you can, like...
지금 여기 오스틴에도 해볼 수 있거든요. 그래서 그냥…
────────────────────
카마스 | 22:27
Yeah, I'd love to try it.
네, 꼭 한번 타보고 싶네요.
────────────────────
머스크 | 22:28
You can literally just download the Tesla app,
진짜 말 그대로 그냥 테슬라 앱만 다운받으시면 되고,
and I think it's open to anyone.
제가 알기로는 누구나 쓸 수 있을 거예요.
Definitely try it out.
꼭 한 번 체험해 보세요.
You know how it goes.
타보시면 어떤 건지 감이 오실 겁니다.
But we've made a lot of progress with electric vehicles, with battery packs and solar,
어쨌든 전기차와 배터리팩, 태양광 분야에서 정말 큰 진전을 이뤄 왔고,
and very much so with self-driving.
자율주행은 말할 것도 없고요.
So, basically, real-world AI.
그러니까 한마디로 현실 세계에서 돌아가는 AI에서 말이죠.
Tesla is the world leader in real-world AI, I would say.
현실 세계 AI 분야에서 테슬라가 세계 선도 기업이라고 말할 수 있을 것 같고요.
And then, we're gonna be making this robot, Optimus, which is starting production, hopefully, summer next year at scale.
그리고 옵티머스라는 로봇을 만들고 있는데, 잘 되면 내년 여름쯤부터 대규모 양산을 시작하길 기대하고 있어요.
And I think that's gonna be pretty cool. That'll be like...
그게 꽤 멋질 거라고 봐요. 그러니까 약간…
I think everyone's gonna want their own personal C-3PO, R2-D2,
아마 모두가 자기만의 C-3PO나 R2-D2를 하나씩 갖고 싶어 하게 되지 않을까 싶어요.
you know, a helper robot. Like, it would be pretty cool.
도우미 로봇 말이에요. 꽤 멋질 것 같죠?
And then, SpaceX is doing great work with the Starlink program,
그리고 스페이스X는 스타링크 프로그램으로 엄청난 일을 하고 있는데요,
you know, providing low-cost, reliable Internet throughout the world.
아시다시피, 전 세계에 저렴하고 신뢰할 수 있는 인터넷을 제공하고 있고,
And hopefully, India. We'd love to be operating in India. That would be great.
바라건대, 언젠가는 인도에서도 운영하게 되면 정말 좋겠고요.
We're operating in 150 different countries, now, with Starlink.
지금 스타링크는 전 세계 150개국에서 서비스 중입니다.
────────────────────
카마스 | 23:38
Can you give me a bit about Starlink and how the tech works?
스타링크가 뭔지, 그 기술이 어떻게 돌아가는지 조금만 설명해 주실 수 있으실까요?
Cause somebody I was speaking to...
왜냐하면 제가 얼마 전에 어떤 분이랑 얘기했었는데...
I don't know if you know this company called Meter out of San Francisco.
샌프란시스코에 있는 미터라는 회사에 대해 아시는지 모르겠는데,
They're trying to replace network engineers.
네트워크 엔지니어를 대체해 보겠다는 회사거든요.
────────────────────
머스크 | 23:50
Don't know it, no.
잘 모르겠습니다.
────────────────────
카마스 | 23:52
So, he was telling me about how, in densely populated areas, Starlink works differently than it might be in a place with not as many people.
그 사람이 그러는데, 인구 밀도가 높은 지역에서는 스타링크가 사람이 많지 않은 곳에서랑은 좀 다른 방식으로 동작한다고 하더라고요.
Can you explain how it works?
스타링크가 어떻게 돌아가는지 설명해 주실 수 있으실까요?
────────────────────
머스크 | 24:04
Yeah, so, Starlink...
네, 그러니까 스타링크는...
There's several thousand satellites in low-Earth orbit,
지구 저궤도에 수천 개의 위성이 떠 있고,
and they're moving around 25 times the speed of sound in these...
그 위성들이 음속의 대략 25배 속도로 돌고 있는...
You know, they're zipping around the Earth, basically, and...
쉽게 말하면 지구 주위를 정말 빠르게 빙빙 돌고 있는 거죠.
they're at an altitude of about 550 kilometers,
그 위성들은 고도 약 550km 상공에 떠 있고,
which is called, generally, low-Earth orbit.
그걸 보통 저궤도라고 불러요.
Because they're at low-Earth orbit there, the latency is low.
그렇게 위성들이 저궤도에 있기에, 통신 지연 시간이 짧은 거죠.
Like, the distance, because the distance is not that far compared to a geostationary satellite at 36,000 kilometers.
36,000km 상공의 정지궤도 위성과 비교하면 훨씬 가까우니까요.
So, you've got thousands of satellites providing low latency, high-speed Internet throughout the world,
그런 수천 개의 위성이 전 세계 곳곳에 저지연 고속 인터넷을 제공하는 구조인 거죠.
and they are interconnected as well.
그리고 위성들끼리도 서로 연결돼 있습니다.
So, there are laser links between the satellites, so it forms, sort of, a laser mesh.
위성 사이에 레이저 링크가 있어서 일종의 그물망 구조의 '레이저 메쉬망'이 형성되는 거죠.
So that the... Let's say if cables are damaged or cut, like fibre cables,
예를 들어 해저 광섬유 케이블 같은 게 손상되거나 끊기더라도
the satellites can communicate between each other
위성끼리 서로 통신을 주고받으면서
and provide connectivity even if the cables are cut.
인터넷 연결을 계속 유지해 줄 수 있는 거죠.
So, for example, when the Red Sea cables were cut, I think, a few months ago,
예를 들어, 홍해 해저 케이블들이 끊겼을 때도, 아마 몇 달 전이었을 거예요.
the Starlink satellite network continued to function without a hitch.
스타링크 위성 네트워크는 아무 문제 없이 계속 작동했습니다.
So, it's particularly helpful for disaster areas.
그래서 스타링크는 특히 재난 지역에서 큰 도움이 돼요.
So, if an area has been hit with some kind of natural disaster, floods or fires or earthquakes,
그러니까 어떤 지역이 홍수나 산불, 지진 같은 자연 재해가 닥치면,
that tends to damage the ground infrastructure.
보통 지상 인프라를 크게 망가뜨리곤 하거든요.
But the Starlink satellites still work,
그럴 때도 스타링크 위성들은 여전히 그대로 돌아가죠.
so... and generally, whenever there's of natural disaster somewhere,
그리고 기본적으로 어디서든 자연재해가 발생하면,
we always provide people with free Starlink Internet connectivity.
저희는 항상 그쪽 사람들에게 스타링크 인터넷을 무료로 제공하고 있습니다.
You know, we don't want to charge... we don't want to take advantage of a tragic situation.
비극적인 상황을 기회 삼아서 요금을 받는다거나... 그걸 틈타 이득을 취하고 싶지는 않거든요.
So, it's always, you know, if there's natural disasters,
그래서 항상 간단하게 자연재해가 발생하면
we're like, "Okay, it's free during the natural disaster."
"이번 자연재해 발생 기간동안 무료로 편하게 쓰세요" 하는 식으로 말이에요.
You know, we don't want to, say, like,
그러니까, 저희는 돈을 내라고 말하고 싶진 않은 거죠.
you know... put a paywall up while somebody's trying to get help. That would be wrong.
사람들이 어떻게든 도움이 필요한 상황에서 유료 장벽을 세워서 돈을 받으려는 건 잘못된 일이니까요.
So, it's a very robust system.
그러니까 스타링크는 시스템 자체가 굉장히 튼튼하고 안정적이에요.
It's complementary to ground systems because the satellite beams work best in sparsely populated areas.
또, 지상 통신 시스템을 잘 보완하는 역할을 하는데, 위성 빔이 인구 밀도가 낮은 지역에서 가장 잘 작동하거든요.
But because you've got a satellite beam, it's a pretty big beam,
왜냐하면 위성 하나의 꽤 큰 빔이 넓은 범위를 커버하고,
and you have a fixed number of users per beam,
빔마다 수용할 수 있는 사용자의 수가 정해져 있어서
so... it tends to be very complimentary to the ground-based cellular systems,
지상의 셀룰러 이동통신망을 대체한다기보다는, 그걸 보완해 주는 역할을 하게 돼요.
because those are very good in cities,
그런 셀룰러 통신망 시스템은 도심에서의 성능이 훨씬 좋거든요.
because you've got these cell towers that are, you know, only a kilometer apart type of thing,
기지국들이 서로 한 1km 간격으로 떨어져 촘촘히 세워져 있으니까요.
but...
그렇지만...
But cell towers tend to be inefficient in the countryside.
시골 지역에서는 기지국이 효율이 많이 떨어져요.
So, in rural areas is where you tend to have the worst Internet
그래서 시골 지역이 보통 인터넷이 제일 안 좋고요.
because it's very expensive and difficult to lay to do all the fibre-optic cables or to have high bandwidth cellular towers.
왜냐하면 그쪽에는 광섬유 케이블을 깔거나, 고대역폭 기지국을 세우는 데 비용도 많이 들고, 공사도 너무 어렵기 때문이죠.
So, Starlink is very complimentary to the existing telecom companies.
그래서 스타링크는 기존 통신사들을 아주 잘 보완해 주는 서비스인 거죠.
It basically tends to serve the least served, which, I think, is good.
기존에 인터넷 서비스 혜택을 가장 못 받던 사람들에게 서비스를 제공하는 셈이고, 저는 그게 좋은 일이라고 봐요.
That's...
그게...
────────────────────
카마스 | 27:26
Will that change tomorrow? Like, today, as you explained,
그럼, 나중에는 바뀔 수 있을까요? 설명해 주신 걸 들어보면,
the beam is quite broad, and it can't work in a densely populated area with high buildings, maybe.
빔 하나의 범위가 꽤 넓어서, 고층 건물이 많고 인구 밀도가 높은 지역에서는 잘 안 먹힐 수도 있잖아요?
But can that change, and tomorrow, it becomes really efficient in a densely populated city where it is competitive with the local network providers?
근데 나중에는 기술이 발전해서 인구 밀도가 높은 도심에서도 현지 통신사들만큼 효율적으로, 경쟁력 있게 쓸 수 있게 되는 날이 올까요?
────────────────────
머스크 | 27:45
Unfortunately, the physics don't allow for that.
안타깝지만, 물리 법칙이 그걸 허용해 주진 않아요.
So, we're too far away.
스타링크가 너무 멀리 떨어져 있거든요.
So, at 550 kilometers, even if we try to reduce it, which...
그러니까 지금 위성의 고도가 550km 정도고, 설령 그 높이를 더 낮추려고 해도...
About as low as we can go is about 350 kilometers,
내려갈 수 있는 최저 고도가 한 350km쯤인데,
still very far away.
그래도 여전히 엄청나게 멀리 떨어져 있죠.
You've just...
그걸 그냥...
You can think of, like, a flashlight, which is, you know, this flashlight's got a cone
손전등이 하나 있고, 그 손전등에서 빛이 이렇게 원뿔형으로 퍼져 나간다고 해 봅시다.
and that cone is coming at, you know... today, it's 550 kilometers.
그 원뿔형의 불빛이 지금은 550km 떨어진 곳에서 내려오는 거고요.
In the future, we're trying to get down to 350 kilometers,
나중엔 그걸 350km 정도까지 낮춰 보려는 거긴 한데,
but we can't beat something that's one kilometer away,
아무리 그래도 1킬로미터 거리에 있는 기지국을 이길 순 없잖아요?
which is the cell tower. Physics is not on our side here.
그게 바로 셀 타워고, 이 부분에선 '물리'가 저희 편이 아닌 거죠.
So, it's not physically possible for Starlink to serve densely populated cities.
그래서 스타링크가 인구 밀도가 높은 도시 전체를 커버한다는 건 물리적으로 불가능해요.
Like, you can serve a little bit, maybe 1% of the population.
아마 그 도시 인구의 조금, 한 1% 정도는 가능할 겁니다.
And, sometimes, people get even in crowded cities, there might be,
그리고 가끔은, 사람이 붐비는 도심 한가운데서도
you know, no fibre link up their road.
집 앞까지 광섬유 회선이 아예 안 들어와 있다든가,
Like, sometimes, there's somebody on a cul-de-sac or something or in a place...
막다른 골목 같은 데 산다든지, 뭔가 애매한 위치에 있는 집들 같은 경우나
In cities, there's sometimes underserved areas for random reasons.
도시 안에도 이런저런 이유로 인터넷이 서비스가 닿지 않는 지역들이 가끔 있습니다.
And so, Starlink can serve, like I said, maybe 1% or 2% of a densely populated city.
그래서 아까 말씀드렸듯이 스타링크는 인구 밀도가 높은 도시에서는 대략 1~2%만 커버할 수 있어요.
But it can be much more effective in, like I said, in rural areas where the Internet connection is much worse.
반대로 말씀드린 것처럼, 시골이나 외곽처럼 인터넷 사정이 훨씬 나쁜 곳에서는 훨씬 더 효과적이죠.
And often, people either have, sometimes, no access to Internet or it's extremely expensive or the quality is not very good.
그쪽에선 아예 인터넷이 없는 경우도 있고, 있더라도 가격이 말도 안 되게 비싸거나 품질이 형편없는 경우가 많으니까요.
And often, people either have, sometimes, no access to Internet or it's extremely expensive or the quality is not very good.
그쪽에선 아예 인터넷이 없는 경우도 있고, 있더라도 가격이 말도 안 되게 비싸거나 품질이 형편없는 경우가 많으니까요.
────────────────────
카마스 | 29:15
If I were to ask you to wager a guess, Elon,
머스크 씨, 한번 그냥 찍어서 예상해 보신다면요,
do you think India will go down the path of urbanisation like China did,
인도도 중국이 그랬던 것처럼 '도시화'의 길을 갈 거라고 보세요?
with more people moving in from rural economies to urban centers?
농촌에서 사람들이 점점 도시 중심지로 많이 몰려가는 방향으로 말이죠.
Or do you think we'll beat the trend?
아니면 그런 흐름을 인도가 거스를 수 있을 거라고 보시나요?
────────────────────
머스크 | 29:31
Well, I suppose some amount of that has happened, right?
음, 어느 정도는 이미 그렇게 되는 거 같은데, 그렇지 않나요?
I mean, I'm curious to, sort of, ask you some questions as well.
그러니까, 사실 저도 이것저것 여쭤보고 싶을 만큼 궁금한데,
Cause, of course, isn't that the trend, or is it not the trend in India?
왜냐하면, 그게 전반적인 추세 아닌가요? 아니면 또 다른 흐름이 인도에서 일어나고 있나요?
────────────────────
카마스 | 29:44
It is the trend, largely. I think a little bit changed during COVID when a lot of urbanisation slowed down
대체로 보면 맞아요, 그런 추세입니다. 다만 코로나 때 도시화의 흐름이 확 꺾였고,
and that was not organic.
자연스럽게 일어난 변화는 아니었죠.
It was very artificially manifested.
굉장히 인위적으로 만들어진 현상이었어요.
────────────────────
머스크 | 29:54
Right.
그렇군요.
────────────────────
카마스 | 29:56
But one does question that with AI,
근데 이제는 AI 시대라는 것을 생각해 보면요,
if productivity were to go up...
그로 인해 생산성이 크게 확 올라가게 되면...
And I heard you speak about UHI instead of UBI.
그리고 머스크 씨가, 보편적 기본소득(UBI) 대신 보편적 고소득(UHI)을 더 가능성 있게 보신다고 들었거든요.
────────────────────
머스크 | 30:09
Yeah. I think it will be Universal High Income ( UHI ).
네, 저는 '보편적 고소득'이 될 거라고 봐요.
────────────────────
카마스 | 30:13
In a world like that, I wonder if more people want to live in cities
그런 세상이 되면, 과연 사람들이 정말 계속 도시에서 살고 싶어 할지 궁금해요.
which are always going to be more polluted
도시는 어쨌든 항상 더 오염될 것이고,
and not offer the quality of lifestyle that a rural environment might.
농촌 환경이 줄 수 있는 만큼의 삶의 질을 제공하지 못할 수도 있으니까요.
────────────────────
머스크 | 30:27
Well, I guess it's up to... some people want to be around a lot of people and some people don't.
음, 그건 결국 각자에게 달린 문제라고 보이는데, 어떤 사람들은 사람들 속에 둘러싸여 있는 걸 좋아하고, 누구는 그렇지 않으니까요.
You know, It's gonna be, maybe, a matter of personal choice.
아마 개인 취향의 문제에 더 가까워지겠죠.
But I think in the future, it won't be...
그리고 제 생각에는, 미래에는 더 이상...
I think it won't be the case that you have to be in a city for a job.
"일자리를 위해 꼭 도시로 가야 한다"는 상황은 더 이상 성립하지 않을 겁니다.
────────────────────
카마스 | 30:40
Right.
정말요?
────────────────────
머스크 | 30:41
Cause I think... my prediction is, in the future, working will be optional.
왜냐하면 제 예상으로는, 미래에는 일을 하는 것 자체가 선택 사항이 될 거라고 보거든요.
────────────────────
카마스 | 30:46
Right.
그렇군요.
We seem to be moving from, not in India, but in some parts of the West, from six days to five days to four days to three.
이미 일부 서구 국가들에선, 인도는 제외하고요, 주 6일 근무에서 5일, 4일, 3일로 점점 줄어드는 흐름이잖아요?
────────────────────
머스크 | 30:55
Not me.
저는 아닙니다만...ㅋㅋ
────────────────────
카마스 | 30:58
I think, the Europeans.
제 생각에는, 아마 유럽 사람들일 거 같아요.
────────────────────
머스크 | 30:59
Yeah, yeah.
네, 맞아요.
Yeah, yeah, 'cause...
음, 저는 왜 그렇지 않냐면...
I mean, I think if you're trying to make a startup succeed
그러니까, 스타트업을 성공시키려 한다거나
or you're trying to make a company do very difficult things,
정말 어려운 일을 해내는 회사를 만들려고 한다면,
then you definitely need to put in serious hours.
진짜로 엄청난 시간을 쏟아부어야 해요.
I think that's how it goes. Right.
그건 어쩔 수 없는 공식 같은 거죠.
────────────────────
카마스 | 31:21
And if we were to move from five to four to three days,
그럼 만약, 주 5일이 주 4일, 주 3일제로 줄여 간다고 하면,
how do you think society changes?
사회는 어떻게 달라질 거라고 보세요?
When people have to work half the week, what do they do with the other half?
사람들이 한 주의 반만 일하게 되면, 나머지 절반은 뭘 하면서 지내게 될까요?
────────────────────
머스크 | 31:30
Well, I think it'll actually be that people don't have to work at all.
음, 저는 사실 아예 일을 할 필요가 없게 될 거라고 봐요.
It may not be that far in the future.
그리고 그게 그렇게 먼 미래의 일이 아닐 수도 있고요.
Maybe only, I don't know, ten, I'd say less than 20 years.
글쎄요, 한… 잘하면 10년? 20년은 안 걸릴 거라고 봐요.
My prediction is, in less than 20 years, working will be optional.
제 예측으로는, 20년이 채 되기 전에 일을 한다는 건 선택 사항이 될 거라고 봅니다.
Working at all will be optional.
아예 일을 한다는 것 자체가 선택사항이 될 겁니다.
Like a hobby.
그냥 취미처럼 말이죠.
Pretty much.
거의 그런 느낌으로요.
────────────────────
카마스 | 31:56
And that would be because of increased productivity, meaning people do not have to work?
( AI로 인한 ) 생산성의 상승으로 인해 사람들이 굳이 일을 하지 않아도 될 거기 때문이란 말씀인가요?
────────────────────
머스크 | 32:01
They don't have to...
사람들이 굳이 일을 할 필요가...
I mean, look, obviously, people can play this back in 20 years and say,
뭐, 물론 20년 뒤에 이 영상을 다시 보면서 그럴 수도 있겠죠.
"Look, Elon made this ridiculous prediction and it's not true."
"봐라, 일론 머스크가 이런 말도 안 되는 예측을 했는데, 결국 틀렸잖아?"
But I think it will turn out to be true that, in less than 20 years,
근데 제 생각엔, 20년이 채 안 돼서 제 예측이 사실로 밝혀질 거라고 봅니다.
but maybe even as little as, I don't know, ten or 15 years,
어쩌면 10년, 많아 봐야 15년 정도밖에 안 걸릴 수도 있고요.
the advancements in AI and robotics will bring us to the point where working is optional.
AI와 로봇 공학의 발전이 일이 '선택사항'이 되는 지점까지 우리를 데려다 줄 겁니다.
In the same way that, like, say,
마치 그런 거랑 비슷해요, 이를테면,
you can grow your own vegetables in your garden
집 마당에서 직접 채소를 키워 먹을 수도 있고,
or you could go to the store and buy vegetables.
그냥 가게에 가서 채소를 사 먹을 수도 있잖아요?
You know.
무슨 말인지 아시겠죠?
It's much harder to grow your own vegetables.
직접 채소를 키우는 게 훨씬 힘들잖아요.
But some people like to grow their vegetables, which is fine.
그래도 어떤 사람들은 자기 손으로 채소를 키우는 걸 좋아하고, 그건 그 나름대로 좋은 거니까요.
But it'll be optional, in that way, is my prediction.
그래도 제 예상으로는, 우리에게 일은 선택 사항이 될 거라고 봐요.
────────────────────
카마스 | 32:54
If one were to argue that humans are innately competitive
만약 누군가가 "인간은 태생적으로 경쟁적인 존재고"
and everything is relative...
"세상 모든 건 결국 상대적인 거다"라고 주장한다면요?
From the time of hunters, somebody wanted to be the alpha hunter or the biggest farmer,
사냥하던 시절부터 항상 누군가는 '최고의 사냥꾼'이나, '제일 큰 농장 주인'이 되고 싶어 했잖아요?
if everybody gets a universal high income and everybody has enough...
만약 모두가 보편적 고소득을 누리고, 모두가 다 충분히 가진 세상이 된다면...
────────────────────
머스크 | 33:12
What do you compete for? Uh...
"그럼 사람들은 도대체 무엇을 두고 경쟁하게 될까?"하는 말씀이시죠?
────────────────────
카마스 | 33:15
it would be relative, right?
결국엔 다 상대적인 거니까요.
Like, if we all had enough, enough is not enough.
그러니까, 우리가 모두 다 충분히 가진 상태가 돼도, 그 '충분하다'라는 게 또 충분하지 않게 될 거라는 거죠.
────────────────────
머스크 | 33:22
Yeah, I guess, I'm not exactly sure.
글쎄요, 저도 정확히는 잘 모르겠습니다.
Cause we're really headed into the singularity, as it's called,
왜냐하면 우리가 소위 말하는 '특이점'이라는 지점을 향해 가고 있기 때문에요.
which, you know, they refer to AI sometimes as kind of like the black hole, like a singularity.
가끔 사람들이 AI를 블랙홀 같은, 그런 '특이점'에 비유하곤 하잖아요?
You don't know what happens after the event horizon.
사건의 지평선 너머에서 무슨 일이 벌어지는진 아무도 모르는 거죠.
It doesn't mean that something bad happens, it just means you don't know what happens.
그렇다고 해서 꼭 나쁜 일이 일어난다는 뜻은 아니고, 그냥 무슨 일이 일어날지 예측할 수 없다는 뜻입니다.
I'm confident that if AI and robotics continue to advance,
저는 AI랑 로봇 공학이 계속 발전해 나갈 거라는 점에 대해서는 확신하고 있거든요.
which, they are advancing very rapidly,
그리고 실제로 지금도 엄청 빠른 속도로 발전하고 있고요.
like I said, working will be optional,
아까 말했듯이, 일은 선택 사항이 될 것이고,
and people will have any goods and services that they want.
사람들은 원하기만 하면 어떤 상품이나 서비스든 다 누릴 수 있게 될 겁니다.
"If you can think of it, you can have it" type of thing.
그러니까 "머릿속에 떠올릴 수 있으면, 가질 수도 있다"에 가까운 세상이 되는 거죠.
But then, at a certain point, AI will actually saturate on anything humans can think of.
그리고 어느 시점이 되면, AI가 인간이 상상해 낼 수 있는 거의 모든 욕구를 사실상 다 포화 상태에 이르게 할 겁니다.
And then, at that point,
그리고 그때가 되면,
it becomes a situation where AI is doing things for...
AI가 무엇을 위해서 일을 하게 되냐면...
AI and robotics are doing things for AI and robotics,
AI와 로봇이 AI와 로봇 자신을 위해서 무언가를 하게 될 겁니다.
because they've run out of things to do to make the humans happy.
인간을 기쁘게 해 줄 수 있는 건 다 바닥나서, 더 이상 해 줄 게 없어질 테니까요.
You know, cause there's a limit, you know? You say, like...
결국엔 한계란 게 있으니까요. 그러니까, 이를테면...
People can only eat so much food, or...
사람들이 먹을 수 있는 음식량에도 한계가 있듯이요...
But it's gonna be, I think... "If you can think of it, you can have it," will be the future.
그렇듯이 제 생각에 미래는 "상상할 수 있으면, 가질 수 있다"의 시대가 될 거라고 봐요.
────────────────────
카마스 | 34:43
You know, the Austrian School of Economics, if you go back in time,
오스트리아 학파 경제학 있잖아요? 옛날로 거슬러 올라가 보면,
they were the digression from Adam Smith.
그 오스트리아 학파는 애덤 스미스가 대표하는 주류 경제학 흐름에서 조금 벗어난 갈래였는데,
They talk about the marginal utility of everything.
그 사람들이 말하는 건 모든 것에는 '한계 효용'이 있다는 거였어요.
Having one of something has value,
어떤 물건을 하나 갖고 있을 때는 분명히 그게 가치가 큰데,
having two of the same thing has lesser value
똑같은 걸 두 개 가지게 되면, 그 추가 가치는 더 낮아지게 되고,
and having ten of the same thing has no value.
똑같은 걸 열 개나 갖게 되면, 사실상 더 이상의 가치는 없어지는 거였죠.
────────────────────
머스크 | 35:01
Yes.
맞습니다.
────────────────────
카마스 | 35:02
So, if we could have everything we wanted, maybe...
그러니까, 우리가 원하는 건 뭐든 다 가질 수 있는 세상이 된다면 아마도...
────────────────────
머스크 | 35:03
Like ten marshmallows, I mean, who wants that?
마시멜로를 열 개 갖는 느낌이겠죠. 누가 그걸 원하겠어요?
One's plenty.
하나면 충분한 양이죠.
This is like the marshmallow test. You're like,
그 유명한 마시멜로 실험 같네요.
"You're gonna have two marshmallows later or one marshmallow now?"
"지금 마시멜로 하나 먹을래?, 아니면 나중에 두 개 먹을래?" 하는 거 있잖아요.
And I'm like, "I'll have one marshmallow, I don't want two marshmallows."
그게 저라면 "그냥 지금 하나 먹을게요, 두 개는 필요 없어요"할 거 같아요.
────────────────────
카마스 | 35:18
That's interesting.
그거 재밌는데요?
What would you pick?
머스크 씨는 뭘 고르시겠어요?
────────────────────
머스크 | 35:22
But I don't... One marshmallow is enough.
저는 마시멜로 하나면 진짜 충분해요.
I always question marshmallows as being like, not the most, you know, the best candy, you know?
저는 마시멜로가 "솔직히 간식 중에서 최고라고 부를 만한 건가?" 싶어서 늘 좀 의문이었어요.
────────────────────
카마스 | 35:30
Yeah.
그렇긴 하네요.
────────────────────
머스크 | 35:32
I don't yearn for marshmallows.
저는 마시멜로가 막 그렇게 간절히 원하진 않거든요.
────────────────────
카마스 | 35:35
I think you're the best...
제 생각에는 머스크 씨가 가장...
────────────────────
머스크 | 35:37
Who does?
누가 그렇게 마시멜로를 간절히 원하겠어요?
────────────────────
카마스 | 35:39
You're the best testament to the marshmallow experiment.
머스크 씨야말로 마시멜로 실험이 맞다는 걸 보여 주는 최고의 산증인이에요.
I think...
제 생각에는...
────────────────────
머스크 | 35:42
I suppose so.
그렇게 볼 수도 있겠죠.
Oh, well, I mean, I like delayed gratification, essentially.
음, 뭐, 그러니까 저는 본질적으로 '만족을 미루는 것'을 좋아하는 편이니까요.
────────────────────
카마스 | 35:46
You're able to delay it more than most.
대부분 사람보다 훨씬 오래 버틸 수 있으신 거 같아요.
You know, I have a tattoo which says, "Delay gratification"
저는 아예 "만족을 미뤄라"라고 문신도 했거든요.
────────────────────
머스크 | 35:50
Wow, okay. What's this?
와, 진짜요?
Okay, you're really taking the marshmallow test hard.
마시멜로 실험을 아주 제대로 받아들이고 계신가 보네요?
────────────────────
카마스 | 35:56
I feel like I can't remember.
가끔 깜빡할 때가 있으니까요.
When I'm trading or when I'm buying...
매매할 때나 매수할 때 보면...
────────────────────
머스크 | 35:59
Delay gratification, yeah, yeah.
"만족을 미뤄라" 네, 무슨 느낌인지 알겠네요.
────────────────────
카마스 | 36:01
It helps.
도움이 되더라고요.
────────────────────
머스크 | 36:02
Wow, okay.
와, 그렇군요.
That's... That's commitment.
진짜 굳은 다짐이네요.
────────────────────
카마스 | 36:04
And it's pointing at me, so it reminds me of...
그리고 이게 저를 가리키고 있어서 볼 때마다 자주 떠올려요.
────────────────────
머스크 | 36:10
Okay, well, it's good advice. I mean, you can't miss it.
네, 어쨌든 좋은 조언이에요. 절대 눈에 안 띌 수가 없겠어요.
────────────────────
카마스 | 36:13
If you could get a...
만약에 머스크 씨가...
If you could get a tattoo, what would you get?
문신을 하나 새긴다면, 뭐로 하고 싶으세요?
────────────────────
머스크 | 36:19
I guess maybe my kids' names or something.
음, 아마 아이들 이름 같은 걸 새기지 않을까 싶어요.
────────────────────
카마스 | 36:21
Right.
그렇군요.
Why do you like the letter "X" as much as you do?
근데 왜 그렇게까지 'X'라는 글자를 좋아하시는 건가요?
────────────────────
머스크 | 36:27
Well...
글쎄요…
I mean, yeah, it's a good question, honestly.
그러게요, 솔직히 말하면 좋은 질문이네요.
Sometimes, I wonder what's wrong with me.
가끔은 저도 스스로 "대체 뭐가 문제야?" 하면서 궁금하기도 하거든요.
So, um...
그래서 그게...
I mean, it started off with, where, I think...
처음엔 이런 생각에서 시작했어요...
So, way back, ancient times, in '99.
그러니까 아주 먼 옛날, 고대라고 할 만한 1999년쯤이었는데,
The Precambrian era when there were only sponges...
거의 선캄브리아 시대, 세상에 해면동물만 살던 원시 생명 시절 얘기죠…
there were only three one-letter domain names.
그때 한 글자짜리 도메인이 딱 세 개 있었거든요.
And I think it's X, Q, and Z.
아마, X, Q, Z 였던 걸로 기억해요.
And, uh...
그래서…
And I was like, "Okay, I want to create this place where it's the financial crossroads
그리고 그때 저는 "좋아, 금융의 교차로 같은 곳을 하나 만들어야겠다" 생각했거든요.
or like the financial exchange, you know?"
아니면 일종의 금융 거래소 같은 곳을 말이죠.
Essentially, it's solving money from an information theory standpoint
본질적으로, 돈이라는 걸 '정보 이론' 관점에서 다시 풀어 보려는 거였는데,
where the current banking system is
지금의 은행 시스템은
a large number of heterogeneous databases
이질적인 데이터베이스들이 잔뜩 모여 있는 구조거든요.
with batch processing that are not secure.
거기에다 보안도 썩 좋지 않은 일괄 처리 방식을 쓰고 있고요.
And if we could have a single database that was real-time and secure,
근데 만약 그걸 실시간으로 돌아가고 보안도 뛰어난 하나의 거대한 데이터베이스로 통합할 수 있다면,
that would be more efficient from a monetary... from an information theory standpoint
그게 정보이론적인 관점에서 보면 훨씬 더 효율적인 구조일 거예요.
than a large number of heterogeneous databases that batch process very slowly and securely.
지금처럼 이질적이고, 느리고, 서로 따로 놀고, 보안도 애매한 시스템 데이터베이스를 수없이 따로 두는 것보다 말이죠.
So, um...
그래서… 음...
So, that was sort of X.com way back in the day,
그러니까 방금 말씀드린 그런 게, 한참 예전에 X.com이 지향하던 모습이었어요.
which kind of became PayPal.
그게 나중에 페이팔로 이어지게 된 거죠.
And then...
그러고 나서...
And it was acquired by eBay. And then, eBay someone reached out from eBay and said,
페이팔이 이베이에 인수됐고요. 그 뒤에 이베이 쪽에서 누가 연락을 해 와서,
"Hey, do you want to buy the domain name back?
"그 도메인 이름 ( X ) 다시 사 가실래요?"라고 물었고,
And I was like, "Sure."
그래서 저는 "좋아요" 했죠.
And so I had the domain name for quite a while.
그래서 한동안은 그 도메인 네임을 제가 갖고 있었어요.
And then...
그러다가…
And then, yes...
그러다가, 이제…
Then I was like, "Well, maybe this acquiring Twitter would also be an opportunity to revisit the original plan of X.com,
트위터를 인수하면서 "어쩌면 X.com의 원래 계획을 다시 논의해 볼 수 있는 기회가 될 수도 있겠다" 라고 생각하게 된 거죠.
which is to create this...
그 원래 계획이라는 건...
this clearinghouse of financial transactions.
금융 거래를 한데 모아서 결제 중앙 허브, 이른바 '중앙 결제소'를 만들자는 거였거든요.
Basically, to create a more efficient money database, is a way to think about it.
쉽게 말하면, 더 효율적인 '돈 데이터베이스'를 만드는 거라고 생각하시면 돼요.
Like, money is really an information system for labour allocation.
그러니까 돈은 사실 노동을 어떻게 배분할지를 정하기 위한 정보 시스템이거든요.
People sometimes think money is power in and of itself, but it doesn't, really...
사람들은 가끔 돈이 그 자체로 곧 힘이라고 생각하지만, 사실 꼭 그런 건 아니에요...
If there's no labour to allocate, it's meaningless.
일할 사람, 배분할 노동이 없으면 돈은 아무 의미가 없으니까요.
So if you were to be on a desert island with a trillion dollars or whatever...
예를 들어 1조 달러 같은 큰돈을 들고 무인도에 혼자 던져졌다고 치면...
It doesn't matter.
아무 소용 없잖아요?
────────────────────
카마스 | 39:23
Now you have that.
이제 1조 달러가 있으시잖아요?
────────────────────
머스크 | 39:24
Oh, yeah, right. Why speculate when you can be real?
굳이 가설을 세워 추측할 필요가 없네요? 실제로 있으니까.
I just hope I don't end up on a desert island you know?
다만, 결국 무인도에만 안 가게 되길 바랄 뿐입니다.
It's not gonna be very useful to me.
거기선 제 돈이 크게 쓸모가 있진 않을 테니까요.
But it illustrates my point that if you're stranded on a desert island with a trillion dollars, it's not useful,
그런 예시가 잘 보여 주는 게, 1조 달러를 들고 무인도에 고립돼 있으면 그 돈은 아무 소용이 없다는 거예요.
because there's no labour to allocate. You just allocate yourself, so...
배분할 노동이라는 게 존재하지 않으니까요. 딱 자기 자신 하나만 있을 뿐이잖아요?
So, anyway, so, it's a long-winded way of saying that it's...
어쨌든, 말을 장황하게 하고 있지만, 결론은...
It's just really, like...
그냥, 정말 뭐랄까...
I'm just kind of slowly revisiting this idea that I had 25 years ago
25년 전에 갖고 있었던 그 생각을 지금 이렇게 천천히 다시 들여다보고 있는 셈이에요.
to create a more efficient, um...
더 효율적인...
money database.
'돈 데이터베이스'를 만들겠다는 생각을 말이죠.
And if that's successful, people will use it,
그게 잘 되면 사람들은 자연스럽게 쓰게 될 테고,
and if it's not successful, they won't use it.
잘 안되면 그냥 안 쓰겠죠.
You know, and then, I also like the idea of having a unified... app or website or whatever, where you can do anything you want there.
그리고 또, 저는 앱이든 웹사이트든 뭐가 됐든, 하고 싶은 건 거기서 다 할 수 있는 통합된 곳이 하나 있으면 좋겠다고 생각하거든요.
You know, China has this with WeChat, somewhat, you know, where you can exchange information,
중국에는 위챗이 어느 정도 그런 역할을 하고 있잖아요? 거기서 정보도 주고받을 수 있고,
you can publish information, you can exchange money.
정보글도 게시할 수 있고, 돈도 주고받을 수 있고요.
People kind of live their life on WeChat in China.
중국 사람들은 사실상 위챗 안에서 거의 인생을 다 산다고 봐도 되거든요.
And it's quite useful, but there's no real WeChat outside of China.
굉장히 유용한 플랫폼인데, 중국 밖에는 그런 위챗 같은 서비스가 없어요.
So, it's, like... It's kind of WeChat++, I'd say, is the idea for X.
그래서 X의 아이디어는 일종의 '위챗++' 같은 거라고 할 수 있겠죠.
Anyway, so, then, Space Exploration Technologies is the full name of the company.
아무튼, 스페이스X의 원래 회사 풀네임이 < Space Exploration Technologies > 거든요.
But I was like, "That's too much, that's a mouthful."
저는 그게 "너무 길고 복잡한 말이라서 입에 잘 안 붙는다"라고 느꼈고,
So I was like, "We'll just call it SpaceX,"
그래서 "그냥 스페이스X라고 부르자"라고 했어요.
like FedEx for space.
우주판 페덱스 같은 이름으로 말이죠.
It just happens to have the X in the, you know...
그렇게 그냥 우연히 이름 안에 X가 들어가게 된 거예요.
Cause exploration has an X, but, you know...
'탐사'라는 단어에도 X가 들어가니까요.
And I was like, well, I like capitalising the X just artistically, so...
그리고 X를 대문자로 쓰면, 왠지 미적으로 예뻐 보여서 마음에 들더라고요.
So, then, uh, that's why it's SpaceX, but...
그게 지금의 스페이스X가 된 이유고요...
And then, what else we got? I got a kid.
그리고 또 뭐가 있죠? 아, 아들이 있는데,
He's called X, too,
그 아이 이름도 X예요.
but his mother's the one that named him "X".
근데 그건 사실 엄마가 붙인 이름이에요.
Ah...
아...
And I said, "You know, people are really gonna think I've got a thing about X. if we name our kid "X" too, you know?"
그래서 제가 "있잖아, 우리 애 이름까지 X라고 지으면, 사람들이 내가 X에 완전히 꽂혀 있다고 생각할 거야"라고 말했죠.
And I said to her, like, "Look, I do have X.com, you know."
게다가 제가 "내가 X.com도 가지고 있다는 거 알지?"하고 말했거든요.
So, people are gonna really think I've got somewhat of a fetish for this letter.
"그러니까 사람들이 이 알파벳 X에 내가 약간 집착한다고 생각할 거라고"
But she said no, she likes X and she wants to call him X. I'm like, "Okay."
그런데도 "아냐, 난 X가 좋고, X라고 부르고 싶어"라고 해서, "그래, 알겠어" 한 거죠.
────────────────────
카마스 | 42:08
Is this a new thing, or have you had it growing up?
그런 X에 대한 집착이 최근에 생긴 거예요? 아니면 어릴 때부터 있었던 거예요?
────────────────────
머스크 | 42:11
No, I'm saying it's somewhat of a coincidence.
아니요, 제 말은 그냥 어느 정도는 우연이란 거예요.
────────────────────
카마스 | 42:15
Okay.
아, 그렇군요.
────────────────────
머스크 | 42:17
Like, not everything's called X. I mean, Tesla isn't, there's no Xs in Tesla.
제가 모든 걸 X로 이름을 짓는 건 아니잖아요? 테슬라에는 X가 없듯이요.
────────────────────
카마스 | 42:24
What do you think money will be in the future, Elon?
머스크 씨는 미래에 돈이 어떤 모습일 거라고 생각하세요?
────────────────────
머스크 | 42:28
I think, long term...
제 생각에는, 장기적으로 보면...
I think money disappears as a concept, honestly.
돈이라는 개념 자체가 사라질 거라고 봐요. 솔직하게요.
It's kind of strange, but...
좀 이상하게 들릴 수 있겠지만...
But in a future where anyone can have anything,
누구나 뭐든 가질 수 있는 미래가 된다면,
I think you no longer need money as a database for labour allocation.
노동을 어떻게 배분할지 정하는 데이터베이스로서의 돈은 더 이상 필요 없게 될 테니까요.
If AI and robotics are big enough to satisfy all human needs,
만약 미래에 AI와 로봇이 모든 인간의 필요를 다 충족시킬 만큼 충분히 발달한다면,
then money is no longer...
그때는 돈이라는 게 더 이상...
Its relevance declines dramatically.
돈이 우리 삶에서 차지하는 중요성은 급격하게 줄어들 거예요.
I'm not sure we will have it.
나중에도 여전히 돈이라는 걸 쓸지 잘 모르겠어요.
You know, the best sort of, imagining of this future that I've read is from Iain Banks, the Culture books.
제가 읽은 책 중에 이런 미래를 가장 잘 그려낸 작품이 이언 뱅크스의 < 컬쳐 > 시리즈거든요.
So I recommend people read the Culture books.
그래서 저는 사람들에게 < 컬처 > 시리즈를 한번 읽어보라고 추천합니다.
In this sort of far future of the Culture books, there's... they don't have money, either.
우리의 먼 미래를 다룬 < 컬처 > 세계관에서도 돈이라는 게 없거든요.
And everyone can pretty much have whatever they want.
그리고 모든 사람이 원하는 건 거의 다 가질 수 있고요.
There's still some fundamental currencies, if you will, that are physics-based.
그런 미래에도 일종의 근본적인 '통화'라고 할 만한 것들은 남아 있을 거예요. 뭐랄까, 물리 법칙에 기반한 걸로 말이죠.
So, energy is...
그러니까 에너지가...
Energy is the true currency.
에너지가 진짜 '통화' 잖아요?
This is why I said Bitcoin is based on energy.
제가 비트코인은 에너지에 기반한 거라고 했던 이유도 그거고요.
You can't legislate energy.
에너지는 입법한다고 해서 어떻게 해볼 수 있는 게 아니에요.
You can't just, you know... pass a law and suddenly have a lot of energy.
그냥 국회에서 법을 하나 통과시킨다고 해서 갑자기 에너지가 막 생기는 게 아니니까요.
It's very difficult to generate energy,
에너지를 만들어내는 일은 정말 어려워요.
or especially to harness energy in a useful way to do useful work.
특히, 그 에너지를 유용한 일을 하는 방식으로 잘 끌어다 활용하는 건 더더욱 어렵고요.
So, I think that probably...
그래서 제 생각에는 아마...
Probably we won't have money and probably we'll just have energy,
그래서 아마 돈은 사라지고, 에너지 자체를 통화로 쓰게 되지 않을까 싶어요.
you know, power generation as the de facto currency.
발전 능력, 전력을 만들어 내는 능력이 실질적인 통화가 되는 거죠.
So, I mean, I think one way to frame civilisational progress is the percentage completion on the Kardashev scale.
문명의 진척을 규정해 보는 한 가지 방법은 카르다셰프 척도에서 우리가 몇 퍼센트까지 채웠느냐를 보는 건데요,
So, you know, Kardashev I is what percentage of a planet's energy are you successfully turning into useful work?
카르다셰프 1형 문명은, 그 "행성이 가진 에너지 중에서 얼마만큼을 실제로 유용한 일로 잘 바꿔 쓰고 있느냐?" 하는 거고,
And I'm maybe paraphrasing here a little bit,
제 스타일대로 좀 풀어서 설명하는 걸 수도 있어요.
but the Kardashev II would be what percentage of the sun's energy are you converting into useful work?
카르다셰프 2형 문명은, "태양 에너지 중에서 얼마만큼을 실제로 유용한 일로 전환하고 있냐?"하는 겁니다.
Kardashev III would be what percentage of the galaxy are you converting into useful work?
그리고 카르다셰프 3형 문명은, "은하 전체 에너지 중에서 얼마만큼을 실제로 유용한 일로 전환하고 있냐?"하는 거죠.
So, things really, I think, become energy-based.
그래서 제 생각에는 결국 모든 게 에너지 기반이 되는 거예요.
────────────────────
카마스 | 45:02
But if you have solar-powered AI satellites, energy is also free and abundant,
그런데 태양광 기반 AI 위성들이 돌아다니는 수준이 된다면, 에너지는 사실상 공짜이거나, 넘쳐날 정도로 많다 거잖아요?
cause we'll never be able to utilise all the solar energy available to us.
우리가 쓸 수 있는 태양 에너지를 전부 다 활용하는 건 애초에 불가능하니까요.
So, it can't be a store of wealth, essentially, in that lens, can it?
그런 관점에서 보면, 에너지는 본질적으로 부를 저장하는 수단이 되긴 어렵지 않을까요?
────────────────────
머스크 | 45:18
You know, there's not really...
그러니까 사실...
You can't really store wealth in, like...
'부를 어딘가에 저장한다'라는 개념 자체를 봤을 때...
You can only...
우리가 할 수 있는 건...
You can accumulate numbers in the...
숫자를 계속 쌓아 두는 것뿐이잖아요...?
Currently, you can accumulate numbers in a database that allow you to...
지금 경제 시스템에서는, 어떤 데이터베이스 안에 숫자를 쌓아 두면 그걸 가지고...
to some degree, to incent the behaviour of other humans in particular directions.
어느 정도는 다른 사람들의 행동을 특정 방향으로 행동하도록 유도하는 데 쓰고 있는 거죠.
And I guess people call that wealth.
그걸 지금은 사람들이 '부'라고 부르고 있는 것 같고요.
But again, if there's no humans around,
그런데 다시 말씀드리지만, 주변에 사람이 아예 없다면,
there's no wealth accumulation is meaningless.
부를 축적한다는 개념 자체가 아무 의미가 없어진다는 겁니다.
────────────────────
카마스 | 45:54
This is a digression, but if you were to consider... food as the energy for a human to thrive...
좀 옆길로 새는 얘기일 수도 있는데요, 음식을 인간이 번성하는 데 필요한 에너지라고 본다면...
────────────────────
머스크 | 46:00
Yeah, food is energy. It's literally got calories, just means energy.
네, 음식은 에너지죠. 칼로리가 있다는 건 말 그대로 에너지를 뜻하니까요.
────────────────────
카마스 | 46:04
So, can a farm, which is self-sustaining, be a commodity that is...
그렇다면 완전히 자급자족이 가능한 농장이라는 것도, 일종의 자산, 부라고 할 수 있는...
────────────────────
머스크 | 46:13
I'm not sure what that means, but, you know, there's...
정확히 어떤 말씀인지는 잘 모르겠지만, 어쨌든...
At a certain point, you do complete the cycle where...
어느 지점에 이르면, 그런 순환 구조가 완전히 완성되는 때가 올...
I think, at a certain point... you decouple from the sort of conventional economy
제 생각에는, 어느 시점이 되면 우리가 기존의, 전통적인 경제 시스템에서 완전히 분리될 거라고 봐요.
if you have, um...
만약에 가능해진다면 말이죠...
AI and robots producing chips and solar panels...
예를 들어 AI랑 로봇이 칩과 태양광 패널을 생산해 낸다거나,
and you know, and mining resources in order to make chips and robots,
칩과 로봇을 만들기 위해 자원을 스스로 채굴하고,
in order to make...
그걸로 또 다른 것들을 만들기 위해...
You sort of complete that cycle.
그런 식으로 미래엔 일종의 순환 구조를 완성하게 되는 거죠.
Once that cycle is... Once that cycle is complete,
일단 한 번 그런 순환 구조가 완성된다면,
I think that's the point at which you decouple from the monetary system.
제 생각엔 그 시점이 우리가 화폐 시스템에서 완전히 분리되는 시점이 될 거라고 봐요.
────────────────────
카마스 | 47:02
Is that the way forward for the US by virtue of... how much debt they have today?
그게 지금 미국이 앞으로 가야 할 방향일까요? 막대한 부채가 있다는 점 때문에 말이죠.
Do they deflate away their currency and transition into this new form and lead that push,
통화 가치를 떨어뜨리면서 말씀하신 그런 새로운 형태의 체제로 전환을 주도하는 게
because it would make more sense to them?
미국 입장에선 더 합리적인 선택일 수 있으니까요?
────────────────────
머스크 | 47:19
Well, in this future that I'm talking about,
음, 제가 지금 얘기하고 있는 그 미래에서는요,
the notion of countries becomes, sort of, anachronistic.
국가라는 개념 자체가 어떻게 보면 좀 시대에 뒤떨어진 게 돼요.
────────────────────
카마스 | 47:27
Do you believe in it today? Do you believe in countries...
그렇다면 지금은 '국가'라는 게 시대에 뒤떨어진 개념은 아니라고 보시나요?
────────────────────
머스크 | 47:30
Yeah, I certainly believe in it today. And I want to just separate something that I...
네, 지금은 분명히 유효한 개념이라고 봐요. 그리고 좀 확실히 구분하고 싶은 게 있는데,
Like, these are just what I think will happen based on what I see,
지금 제가 하는 얘기들은, 제가 보고 있는 걸 바탕으로 "앞으로 이렇게 될 거다"라고 보는 것뿐이고,
as opposed to, "I think these are fundamentally good things and I'm trying to make them happen"
그게 근본적으로 좋은 일이라고 생각해서, "그걸 실제로 일어나게 만들려고 한다"라는 태도와는 대조적인 거죠.
Like, I think this would happen with or without me, whether I like it or not.
그러니까, 제 생각에는, 제가 있든 없든, 제가 좋든 싫든 이 일은 일어나게 될 거예요.
As long as civilisation keeps advancing, we will have AI and robotics at very large scale.
문명이 계속 발전하기만 한다면, 우리는 AI와 로봇을 아주 거대한 규모로 활용하게 될 겁니다.
I think that that's pretty much the only thing that's gonna solve for the US debt crisis.
제 생각에는, 그게 미국의 부채 위기를 해결해 줄 수 있는 거의 사실상 유일한 것이라고 봐요.
You know, cause, currently, the US debt is insanely high,
아시다시피, 지금 미국의 국가 부채는 말도 안 되게 높은 수준이고,
and the interest payments on the debt exceed the entire military budget of the United States, just the interest payments.
그 부채에 대한 이자 비용만 해도 미국 전체 국방 예산을 넘어서니까요. 그냥 이자만요.
And that's... at least, in the short term, gonna continue to increase.
그리고 적어도 단기적으로는 계속 늘어날 테고요.
So, I think, actually, the only thing that can solve for the debt situation is AI and robotics.
그래서 저는, 부채 문제를 진짜 해결할 수 있는 건 결국 AI와 로봇뿐이라고 생각해요.
But it will more than...
그런데 그건 단순히 그 정도로 끝나진 않을...
It might cause...
또 다른 문제를 부를 수도...
See, I guess it probably would cause significant deflation, because...
그러니까, 제 생각에는 아마 꽤 큰 디플레이션을 불러올 수도 있다고 봐요. 왜냐하면...
deflation or inflation is really the ratio of goods and services produced to the change in the money supply.
인플레이션이냐 디플레이션이냐는 결국 "'생산되는 재화, 서비스의 양'이 '통화량 증가 속도'에 비해 얼마나 빠르냐?"의 문제거든요.
So, like, so if goods and services output increases faster than the money supply, you will have deflation.
그러니까, 재화와 서비스 생산량이 통화량의 증가 속도보다 더 빨리 늘어나면 디플레이션이 오고요,
If goods and services decreases
반대로 재화와 서비스 생산량이 줄어들거나...
If real goods and services output increases slower than the money supply, you have inflation.
실질 재화와 서비스 생산량이 통화량의 증가 속도보다 더 느리게 늘어나면 인플레이션이 오는 거죠.
It's that simple.
사실 별거 아니에요.
People sometimes try to make it more complicated than that, but it just isn't.
사람들이 가끔 그걸 괜히 훨씬 더 복잡하게 만들려고 하는데, 사실 전혀 복잡하고 그렇지 않거든요.
So, if you have AI and robotics and a dramatic increase in the output of goods and services, probably, you will have deflation.
그래서 AI랑 로봇으로 재화와 서비스 생산량이 극적으로 늘어나면, 아마 디플레이션이 올 겁니다.
That seems likely.
그렇게 될 가능성이 높다고 봐요.
Because you simply won't be able to increase the money supply as fast as you can increase the output of goods and services.
왜냐하면 재화와 서비스 생산이 늘어나는 속도만큼 통화량을 빠르게 늘리는 건 현실적으로 불가능하거든요.
Fly is a real hazard here.
저 파리 진짜 오늘 방해 요소네요.
────────────────────
카마스 | 49:32
Should we do something about it?
무슨 조치를 좀 취해야 할까요?
────────────────────
머스크 | 49:35
Maybe we can convince it to go somewhere else.
어디 딴 데로 가달라고 설득이라도 해야 할 것 같아요.
Entice it elsewhere.
어디 딴 데로 유인해 보죠.
It actually left, I think.
아, 이제 간 것 같아요.
────────────────────
카마스 | 49:41
Oh, now it's back.
아, 다시 왔어요 ㅋㅋ
Maybe it's attracted to the light.
불빛에 끌리는 걸지도 모르겠네요.
If deflation is...
만약 디플레이션이...
────────────────────
머스크 | 49:51
Maybe it wants some coffee.
어쩌면 쟤도 커피를 마시고 싶은 걸 수도 있어요.
────────────────────
카마스 | 49:53
Mine is over.
제 건 다 마셨는데요? ㅋㅋㅋ
If deflation is inevitable because of AI, why do we have...
만약 AI로 인한 디플레이션이 불가피하다면, 왜...
────────────────────
머스크 | 50:01
It's most likely the case, yeah.
아마 그럴 가능성이 가장 크긴 하죠.
────────────────────
카마스 | 50:03
Right.
그렇군요.
Why do we have inflation again all over in society today?
그렇다면 왜 지금 전 세계가 다시 인플레이션에 시달리고 있는 걸까요?
Has AI not led to increased productivity yet?
AI가 아직은 생산성 향상으로 이어지지 않은 걸까요?
────────────────────
머스크 | 50:12
It's not... AI has not yet made enough of an impact on productivity
아직... AI가 아직 생산성에 미치는 영향이 충분하지가 않은 거죠.
to increase the goods and services faster than the increase in the money supply.
재화와 서비스 생산이 통화량이 늘어나는 속도보다 더 빠르게 늘어날 만큼 말이에요.
So, the US is increasing money supply quite substantially with you know,
그러니까 지금 미국은 통화량을 꽤 상당한 수준으로 늘리고 있어요.
deficits that are on the order of two trillion dollars.
매년 재정 적자가 대략 2조 달러 정도의 규모로 나고 있거든요.
────────────────────
카마스 | 50:30
Yeah.
그렇군요.
────────────────────
머스크 | 50:31
So, you have to have... goods and services output increase more than that in order to not have inflation.
그런 통화량의 속도를 상쇄해서 인플레이션을 막기 위해선, 재화와 서비스 생산량이 그보다 더 많이 늘어나야만 해요.
So we're not there yet, but if you say how long would it take us to get there,
아직 그 수준까지 가진 못했지만 만약, "거기까지 도달하는 데 얼마나 걸릴까요?"라고 물으신다면,
I think... it's three years.
제 생각엔... 한 3년? 정도일 거 같아요.
Probably three years before... In three years or less...
아마 3년, 많아도 3년 안에는...
my guess is goods and services output will exceed the rate of inflation.
제 추측으로는 그때쯤이면 재화와 서비스 증가 속도가 인플레이션율을 넘어설 겁니다.
Like, money...
그러니까 통화량이...
Goods and services growth will exceed money supply growth in about three years.
대략 3년 안에는 재화와 서비스의 증가 속도가 통화량의 증가 속도를 넘어설 거라는 거죠.
────────────────────
카마스 | 51:04
Maybe after those three years, you have deflation and then interest rates go to zero
그렇게 3년쯤 지나고, 디플레이션이 와서 금리가 제로 까지 내려간다면,
and then the debt is a smaller problem than it is.
부채 문제가 지금처럼 큰 문제는 아니게 될 수도 있겠네요?
────────────────────
머스크 | 51:12
Yes.
네.
────────────────────
카마스 | 51:13
Right?
그렇죠?
────────────────────
머스크 | 51:14
That's most likely the case.
아마도 그렇게 될 가능성이 가장 크다고 봐요.
────────────────────
카마스 | 51:17
You spoke about being in a simulation earlier.
"우리는 시뮬레이션 속에 있는지도 모른다" 라고 말씀하셨잖아요?
I love The Matrix.
제가 영화 '매트릭스'를 진짜 좋아하거든요.
────────────────────
머스크 | 51:21
Yes, yes.
아, 네. 맞아요.
────────────────────
카마스 | 51:22
If you were to be a character from The Matrix, who would you be?
만약 매트릭스 속 캐릭터 중의 한 명이 될 수 있다면, 머스크 씨는 누구를 고르시겠어요?
────────────────────
머스크 | 51:26
Well, there's not that many characters to pick from, you know?
글쎄요, 사실 고를 수 있는 캐릭터가 그렇게 많진 않잖아요?
Hopefully not Agent Smith.
스미스 요원은 아니면 좋겠네요 ㅎㅎ
He's my hero.
제겐 영웅 같은 캐릭이라...ㅋㅋㅋ
I mean, Neo's pretty cool.
음, 네오도 꽤 멋지고,
The Architect is interesting.
아키텍트 캐릭터도 흥미롭고요.
────────────────────
카마스 | 51:45
The Oracle.
오라클은 어떠세요?
────────────────────
머스크 | 51:46
There's the Oracle...
그러네요, 오라클도 있었고...
Sometimes, I feel like I'm an anomaly in the Matrix.
가끔은, 제가 매트릭스 안에서 좀 '부적격자(이상)' 같은 존재인 것 같다는 느낌이 들어요.
────────────────────
카마스 | 51:53
That is Neo.
그렇다면 네오가 되겠네요?
────────────────────
머스크 | 51:55
Yeah.
그렇죠.
────────────────────
카마스 | 51:56
Do you believe you're in a Matrix, though?
근데 진짜로, 우리가 매트릭스 안에 있다고 믿으세요?
Like, actually believe?
그러니까, 진심으로 말이죠.
────────────────────
머스크 | 52:01
I think you have to just think of these things as probabilities, not certainties.
그런 건 확실성의 문제가 아니라, 확률의 문제로 생각해야 한다고 봐요.
There's some probability that we're in a simulation.
그리고 저희가 시뮬레이션 안에 있을 확률이 어느 정도는 있다고 생각해요.
────────────────────
카마스 | 52:09
What percentage would you attribute to that?
그 확률이 몇 퍼센트쯤 된다고 보세요?
────────────────────
머스크 | 52:17
Probably pretty high, I would say it's pretty high.
아마 꽤 높을 거예요, 저는 꽤 높다고 봅니다.
────────────────────
카마스 | 52:20
Yeah?
진짜요?
────────────────────
머스크 | 52:21
Yeah.
네.
So, one way to think of this is to say,
그 가능성에 대해 이렇게 생각해 볼 수도 있는데요,
if you look at the advancement of video games,
비디오 게임이 어떻게 발전해 왔는지 떠올려 보면,
in our lifetime, or at least in my lifetime, it's gone from very simple video games with... where you've got,
우리 평생, 적어도 제 인생만 놓고 봐도, 게임이란 게 엄청 단순한 것에서 시작했잖아요?
like, Pong, you've got two rectangles in a square,
예를 들면 퐁 같은 게임처럼요. 화면에 막대기 두 개랑 작은 네모 하나만 나와서,
just batting it back and forth, to...
공을 왔다 갔다 튕겨내기만 하는 게임에서...
photorealistic, real-time games with millions of people playing simultaneously.
이제는 수백만 명이 동시에 접속해서 즐기는, 사진 같은 실감 나는 실시간 게임까지 오게 된 거예요.
And that's happened just in the span of 50 years.
그 모든 게 불과 50년 남짓한 시간에 일어난 일이거든요.
So, if that trend continues,
그래서 그런 추세가 계속된다면,
video games will be indistinguishable from reality.
비디오 게임은 현실이랑 구별이 안 갈 정도가 될 거예요.
────────────────────
카마스 | 53:01
Right.
그렇군요.
────────────────────
머스크 | 53:03
And we're also gonna have very intelligent characters,
그리고 또, 굉장히 똑똑한 캐릭터들도 생기게 될 거고요.
like Non-Player Characters, in these video games.
NPC 같은 캐릭터들 말이죠.
Think of how sophisticated the conversations are you can have with an AI today,
지금도 AI랑 얼마나 수준 높은 대화를 할 수 있는지 한 번 생각해 보세요.
and that's only gonna get more sophisticated.
게다가 앞으로 더더욱 정교해지기만 할 겁니다.
You'll be able to have conversations that are... more complex and more sophisticated than any... almost any human conversation.
그래서 나중엔, 거의 어떤 인간과 나누는 대화보다 더 복잡하고, 더 정교한 대화를 AI와 나누게 되겠죠.
Maybe any.
어쩌면 거의가 아닌, 모든 인간보다요.
So, then... So, you have So, the future, if civilisation continues,
그래서 지금과 같은 문명의 발전이 계속 이어진다고 가정하면 미래에는
will be millions, maybe billions, of...
수백만, 어쩌면 수십억 개에 달하는...
photorealistic, like, indistinguishable-from-reality video games
사진처럼 실감 나는, 현실과 구분이 안 되는 비디오 게임 세계가 생겨서
with characters in those video games that are... very deep,
그 안에 정말 깊이가 있는 캐릭터들이 등장할 테고,
and where the dialogue is not pre-programmed.
지금의 NPC처럼 미리 짜여진 말을 하는 게 아닌, 실시간으로 답하는 캐릭터 말이죠.
That's for sure what's gonna happen.
저는 미래에 분명히 그렇게 될 거라고 봐요.
In this level of the simulation, if you could call it.
지금 우리가 있는 이 '시뮬레이션 레벨'의 단계에서 말이죠. 뭐, 그렇게 부를 수 있다면요.
So, then, what are the odds that we're in base reality,
그렇다면, 이 상태가 '기저 현실'일 확률,
and that this has not happened before?
그리고 이런 일이 이전엔 한 번도 일어난 적이 없을 확률은 얼마나 될까요?
────────────────────
카마스 | 54:20
If I were to buy into that, and assume that we are in a simulation,
만약 제가 그 얘길 일단 받아들여서, "맞아, 우린 시뮬레이션 속에 있어"라고 가정하고,
as Neo of the story,
그 이야기 속의 네오라면,
what do you know that I don't and I can learn from?
머스크 씨는 알고, 저는 모르는 것들 가운데 제가 배울 수 있는 건 뭐가 있을까요?
────────────────────
머스크 | 54:32
I think, most likely... outside the simulation would be less interesting than in the simulation,
제 생각엔, 시뮬레이션 밖의 세계는 오히려 이 안보다 덜 흥미로울 가능성이 커요.
cause you're most likely a distillation of what's interesting,
지금 여기 있는 저희는 재밌는 것들만 추려낸 '정수' ( 증류 ) 같은 존재일 가능성이 크거든요.
because that's what we do in this... that's what we do in our reality.
왜냐하면, 우리가 현실에서 하는 일이 딱 그렇잖아요?
And then...
그리고 또...
I do also have a theory which is,
그리고 제겐 이런 이론도 하나 있는데요,
like, the most interesting outcome, is the most likely outcome as seen by a third party...
"제 3자의 입장에서 봤을 때, 가장 흥미로운 결과가 가장 일어날 법한 결과다"
the gods or god of the simulation.
그 제3자가 이 시뮬레이션의 신들이나, 신 같은 존재라고 치면요.
Because when we do simulations, when humans do simulations,
왜냐하면 우리 인간이 시뮬레이션을 돌릴 때,
we stop those simulations that are not interesting.
재미없는 시나리오는 중간에 그냥 꺼 버리거든요.
So, if SpaceX is doing simulations of rocket flights...
예를 들어 스페이스X가 로켓 비행 시뮬레이션을 돌린다고 하면...
the boring ones, we discard,
지루한 것들은 그냥 다 버려 버리거든요.
because they're not they're just not... we don't learn anything from those.
왜냐하면 그런 시뮬레이션에서는 배울 게 없으니까요.
Or when Tesla's doing simulations for self-driving,
아니면 테슬라가 자율주행을 위한 시뮬레이션을 돌릴 때도 마찬가지고요.
Tesla's actually looking for the most interesting corner cases,
테슬라는 사실 가장 흥미로운 극단적 상황들을 찾으려고 하거든요.
because the normal stuff, we already have plenty of data on driving on a straight road on a sunny day.
왜냐하면 맑은 날, 직선 도로를 주행 같은 평범한 데이터는 이미 넘칠 만큼 많이 가지고 있으니까요.
We don't need more of that.
그래서 그런 건 더 이상 필요가 없는 거죠.
We need heavy weather conditions on a small, windy road
테슬라에게 필요한 건, 좁고 굽이진 도로에 악천후가 겹치고,
with two cars that are coming at each other with an almost head-on collision.
차 두 대가 거의 정면충돌하기 직전까지 마주 달려오는 그런 상황이에요.
We need weird stuff, basically, interesting stuff.
그러니까, 쉽게 말해 이상하고 특이한, 흥미로운 상황들이 필요한 겁니다.
So, I think that, from a Darwinian's perspective, the simulations most likely to survive
그래서 제 생각에 다윈주의적 관점에서 보면, 살아남을 가능성이 가장 높은 시뮬레이션은
are gonna be the ones that are the most interesting simulations,
가장 흥미로운 시뮬레이션들일 겁니다.
which, therefore, means that the most interesting outcome is the most likely.
그 말은 곧, 가장 흥미로운 결과가 가장 일어날 법한 결과라는 뜻이 되고요.
────────────────────
카마스 | 56:22
And the people who simulated our world, if one were to extrapolate,
거기서 더 확장해서 추론해 본다면, 우리 세계를 시뮬레이션한 존재들도
they themselves might, in turn, be in another simulation.
그들 자신도 또 다른 시뮬레이션 안에 있을 수도 있는 거잖아요?
────────────────────
머스크 | 56:30
Yes.
그렇죠.
────────────────────
카마스 | 56:31
And there could be many layers of simulation.
그리고 그렇게 여러 겹의 시뮬레이션이 존재할 수도 있는 거고요.
────────────────────
머스크 | 56:33
Yes.
맞습니다.
────────────────────
카마스 | 56:34
Beyond all of these layers of simulation, do you think there's something?
그렇다면 그 수많은 시뮬레이션 층 바깥, 그 너머엔 뭔가가 있다고 보세요?
I read somewhere that you used to ascribe to Spinoza's God, in a way.
예전에 머스크 씨가, 신에 대한 관점이 어느 정도는 스피노자의 신 개념에 속한다고 하신 걸 어디선가 읽은 것 같아서요.
No man in the sky.
그러니까 하늘 위 있는 건, '신' 같은 게 아니라는...
────────────────────
머스크 | 56:47
Well, I was really just pointing out that you don't have to have...
음, 제가 지적하고 싶었던 건, 꼭 그런 식의 신이 없어도...
One of the things Spinoza was saying is that you can have morals in the absolute.
스피노자가 한 주장 중 하나는 "도덕이라는 건 그 자체로 절대적인 것일 수 있다"라는 거예요.
You don't need to have morals to be handed to you.
"도덕이라는 걸 꼭 누가 위에서 내려줘야만 하는 건 아니다"라는 거죠.
You know...
그러니까...
It's like, the question is, can morality exist outside of a religious context?
핵심 질문은 이거예요. "종교라는 틀 바깥에도 도덕이 존재할 수 있는가?"
And Spinoza was arguing that it can.
그리고 스피노자는 그게 가능하다고 주장한 거고요.
────────────────────
카마스 | 57:10
Wasn't he arguing for "The laws of nature should be where we seek our laws of morality from" to a certain extent?
스피노자가 어느 정도는 "우리의 도덕 기준은 자연법칙에서 찾아야 한다"라고 주장했던 거 아닌가요?
────────────────────
머스크 | 57:17
Yeah.
네, 맞아요.
────────────────────
카마스 | 57:18
But when I think of laws of nature, I see a tiger eat a deer and a...
근데 저는 자연의 법칙이라고 하면, 호랑이가 사슴을 잡아먹는 모습 같은 게 떠오르거든요...
So, in Spinoza's morality, that's fair game, right?
그렇다면 스피노자의 도덕관에서는, 그런 것도 완전히 '정상적인 일'로 받아들여지는 걸까요?
────────────────────
머스크 | 57:32
Well, um...
음, 글쎄요...
I think there's a lot of things you can take from Spinoza,
스피노자로부터 가져올 수 있는 것들은 정말 많지만,
but the only point I was making in referencing Spinoza was that
제가 스피노자를 언급하면서 진짜 말하고 싶었던 건 딱 하나였어요.
you can have a set of morals that... that make society functional and productive
"사회가 제대로 기능하고 생산적으로 돌아가게 하는 그런 도덕 체계"를 가질 수 있다는 것,
without... you don't necessarily have to have a religious doctrine for that.
그리고 그런 도덕 체계를 위해서 필연적으로 종교적인 교리 ( 가르침 ) 를 가져야 하는 건 아니라는 것.
Yeah, I think that's the main thing I was trying to say there.
네, 그게 제가 거기서 말하려던 핵심이었던 것 같아요.
I don't think people just Like, if somebody is, it doesn't
제 생각에는 그러니까... 그렇다고 해서 바로 사람들이 그렇게 행동할 거라는 건 아니겠지만,
If there's not a commandment not to kill,
예를 들어 "살인하지 말라"라는 계명이 없다고 해서
you know, like, people doesn't mean somebody, without that, they will run around murdering people. you know?
사람들이 이리저리 돌아다니면서 사람을 마구 죽이고 다닌다는 뜻은 아니거든요.
Like, you don't have to have a commandment not to kill...
그러니까 "살인하지 말라"는 계명이 있어야만...
...religious edict to run around killing people.
사람을 안 죽이고 사는 건 아니라는 거예요.
────────────────────
카마스 | 58:36
Have you played GTA?
혹시 GTA 해보셨어요?
────────────────────
머스크 | 58:37
I actually...
저는 사실...
I've only played a little bit of GTA cause I didn't like the fact that...
GTA를 조금밖에 안 해봤는데, 마음에 안 드는 부분이 있었거든요...
Like, in GTA V, you literally can't progress unless you kill the police.
GTA5에서는 말 그대로 경찰을 죽이지 않으면 스토리가 진행이 안 되더라고요.
And I'm like, "This does not work for me."
그래서 "이건 나랑 좀 안 맞다" 싶었죠.
I actually don't like killing the NPCs in the video games.
저는 사실 게임 속 NPC 죽이는 걸 별로 안 좋아하거든요.
That's not my thing, you know?
제 스타일이 아니라서요 ㅎㅎ
So, actually, I didn't like GTA cause...
그래서 사실 GTA를 별로 안 좋아하게 된 거죠.
I actually stopped when it said the only way to proceed is to shoot at the police.
"경찰을 쏴야만 다음으로 진행됩니다"라는 메시지가 나오길래 그만했어요.
I'm like, "I don't wanna do that."
"그렇게까진 하고 싶지 않은데..." 하면서 말이에요.
────────────────────
카마스 | 59:10
Maybe that's why us as the NPCs of our simulation are not dying.
어쩌면 그런 이유가 이 세상이라는 시뮬레이션 안의 NPC들인 우리도 안 죽고 있는 걸지도 모르겠네요.
────────────────────
머스크 | 59:15
Maybe.
그럴 수도 있죠.
You know, anyway, I think you can just, sort of, say,
아무튼, 이렇게 말할 수는 있을 것 같아요.
there's some common sense things that, you know, any civilisation...
"어떤 문명이든 공통으로 통하는 상식적인 것들이 있고..."
that runs around, you know, where people just murder each other wantonly is not gonna be a very successful one.
"아무렇지도 않게 사람들이 서로를 마구 죽이는 문명은 절대 잘 되는 문명이 될 수 없다"라고 말이죠.
────────────────────
카마스 | 59:37
You seem to be changing a bit towards religion, though. Faith.
그래도 머스크 씨가 요즘에는 종교 쪽, 그러니까 믿음 쪽으로 조금씩 바뀌어 가시는 것처럼 보이거든요?
Like, of late, you've said a bunch of things which are pro-religion, almost.
요즘 들어서는 종교에 거의 우호적인 것 같은 말씀도 여러 번 하셨고요.
Not pro-religion, but...
"종교를 옹호한다" 까진 아니더라도...
on those lines.
대략 그에 가까운 듯이요.
────────────────────
머스크 | 59:51
I mean, I think, are there religious...
제 말은, 종교에...
Are there principles in religion that make sense?
"'이건 말이 된다' 싶은 원칙들이 있나?"를 생각해 본다면,
Yeah, I think there are.
네, 저는 있다고 봅니다.
────────────────────
카마스 | 1:00:00
Is it easier for our simulation to have...
만약 우리가 시뮬레이션 속에 있는 거라면, 이 시뮬레이션을 돌리는 입장에서는
a pro-religion projection for the world that we live in?
종교에 우호적인 세상으로 만드는 게 더 편한 걸까요?
We become more relatable? It's easier?
그래야 우리 같은 존재들을 다루기도 편해지니까요?
────────────────────
머스크 | 1:00:12
Well, which religion, though?
근데, 그럼 어느 종교를 말하는 거죠?
────────────────────
카마스 | 1:00:13
Any, depending on where you live.
어떤 종교든요. 사는 곳에 따라서요.
────────────────────
머스크 | 1:00:15
So pick one, you know.
그럼 그냥 하나 찍어서 정해 주는 셈이겠네요?
It's pretty rare that kids have said, you know, "Which religion would you like?"
아이들한테 "어느 종교로 할래?"하고 물어보는 경우는 꽤 드물잖아요?
It's.. It's pretty rare.
그런 경우는 거의 없죠.
I don't know too many situations where kids were offered, like, you know...
제가 아는 한, 애들한테 종교를 그렇게 선택하게 하는 경우는 많지 않았어요.
You know, like, "What do you wanna major in" type of thing.
"너는 뭘 전공하고 싶어?"하는 식으로 말이에요.
It's usually, like, you get given a religion by your parents and your community.
보통은 부모님이랑, 자기가 속한 공동체가 종교를 골라 주니까요.
So, you know. But, you know,
그래도 뭐...
I mean, I think,
저는, 이렇게 생각해요.
there's good things in all religions that are good principles.
모든 종교에는 좋은 원칙이라고 부를 만한 것들이 있다고요.
You can, sort of, read any religious text and say, "Okay, this is a good principle. This is gonna be...
웬만한 종교 경전이든 펼쳐 보면, "오, 이건 좋은 원칙인데? 이걸 따라 살아가면..."
This is gonna lead to a better society, most likely," you know?
"이 사회가 아마 더 나은 세상이 되겠구나" 싶은 내용들이 꽤 많거든요.
So, I mean, in Christianity, you just, sort of, "Love thy neighbour as thyself,"
기독교의 "네 이웃을 네 몸처럼 사랑하라"라는 말도,
which is, you know, have empathy for your fellow human beings is a good one, I think,
같이 살아가는 다른 사람들에게 공감해 주라는 뜻이니까, 꽤 괜찮은 원칙이라고 생각하거든요.
for a good society, you know.
좋은 사회를 위해서 말이죠.
Basically, just consider the feelings of others and
기본적으로, 다른 사람들의 감정을 한 번은 생각해 보고,
treat other people as you would like to be treated.
내가 대접받고 싶은 방식대로 남을 대하면서 살면 된다고 보는 거죠.
────────────────────
카마스 | 1:01:34
If you had to redraw, re-sketch the world, Elon,
머스크 씨가 만약 이 세상을 다시 그린다고 치면요,
think morality, politics, economy,
도덕, 정치, 경제 같은 것들을 말이죠.
how would you change the world we live in today?
그렇다면 세상을 어떻게 바꾸고 싶으세요?
If you had to have Elon's simulation of things.
'일론 머스크의 시뮬레이션 세계'를 만든다고 치면요.
────────────────────
머스크 | 1:01:54
Well, overall, I think the world is pretty great right now.
음, 전반적으로 보면 지금 세상도 저는 꽤 괜찮은 편이라고 생각해요.
I mean, it's...
그러니까, 제 말은...
Anyone who thinks that, like, today's world is not that great,
지금 살고있는 세상이 그렇게 좋진 않다고 생각하는 사람들은
I think they're not gonna be excellent students of history, 'cause if you...
학교에서 역사 공부를 열심히 한 편은 아닐 거라고 봐요. 왜냐하면...
If you read a lot of history, you're like,
역사책을 좀 읽어 보면
"Wow, there's a lot of misery back then," you know?
"와, 옛날 사람들은 진짜 비참하게 살았구나" 싶을 거거든요.
I mean, it used to be that people would be dropping dead of the plague all the time, you know?
예전엔 사람들이 전염병으로 픽픽 쓰러져 급사 하는 게 그냥 일상이었으니까요.
Par for the course, you know?
그냥 "원래 그런 거지"하는 수준으로요.
Just be like...
마치... 어떤 거냐면요...
A good year back in the day would be, like, not that many people died of the plague or starvation or being killed by another tribe.
옛날에 '좋은 해'라는 건, 전염병이나 굶주림, 혹은 다른 부족에게 죽는 사람이 별로 안 나온 해를 말하는 거였어요.
It's like, "That was a good year. We only lost 10% of the population," you know?
"와, 올해는 좋은 해였어. 인구의 10%밖에 안 죽었잖아?", "잘 버텼다" 하는 식으로 말이죠.
────────────────────
카마스 | 1:02:39
I think, like, 100 years ago, we lived up until 35 or 40, right?
한 100년 전만 해도 평균수명이 35~40살 정도였었죠, 아마?
────────────────────
머스크 | 1:02:43
We had very high infant mortality.
그땐 영유아 사망률이 굉장히 높았어요.
So, like, you do have a few people that would live to an old age,
물론, 오래 사는 사람도 가끔 있긴 했지만,
but, you know, not that long ago, 100 years ago,
그래도 그리 오래전도 아닌, 불과 100년 전만 해도
if you got, like, some minor infection, they didn't have antibiotics.
가벼운 감염에도 항생제가 없으니까,
So, you just, like, kicked the bucket.
그냥 그대로 세상을 뜨는 거죠.
Because you, you know, drank some water that had dysentery in it, that was it, curtains, you know?
이질균이 들어간 물을 잘못 마셨다? 그러면 거기서 그냥 끝인 거예요.
You just die of diarrhoea.
그냥 설사 때문에 죽는 거예요.
────────────────────
카마스 | 1:03:10
Maybe that's why people...
아마 그래서 사람들이...
────────────────────
머스크 | 1:03:11
You just literally die. Everyone's like, "That's miserable."
진짜 말 그대로 그냥 그렇게 죽는 거예요. 다들 "비참하다" 싶을 정도로요.
────────────────────
카마스 | 1:03:15
Maybe that's why people had as many kids as they did back then.
아마 그래서 당시에 사람들이 그렇게 애를 많이 낳았던 걸 수도 있죠.
────────────────────
머스크 | 1:03:18
I mean, if you didn't, then, you know...
안 그러면... 아시다시피...
You know, like, half the kids would die, type of thing.
애들 절반은 자라기도 전에 죽어 나가는 게 보통 일이었으니까요.
────────────────────
카마스 | 1:03:25
You have a lot of kids now.
머스크 씨는 지금 자녀가 많으시죠?
────────────────────
머스크 | 1:03:26
Yeah.
네.
────────────────────
카마스 | 1:03:28
With multiple partners.
게다가 파트너도 여러 명이고요.
────────────────────
머스크 | 1:03:29
Like an army.
군대 수준이죠.
────────────────────
카마스 | 1:03:30
Yeah.
그러니까요.
────────────────────
머스크 | 1:03:31
I'm trying to get an entire Roman legion.
저는 로마 군단 하나를 통째로 만들려고 하고 있거든요.
Well, I have, like, some older kids that are, you know, adults, essentially, you know?
나이가 좀 있는 애들도 있는데, 사실상 이제 어른들이에요.
And then, a bunch of younger kids.
그리고 아직 어린 애들도 많이 있고요.
────────────────────
카마스 | 1:03:51
Do you still believe in the concept of... not still...
혹시 아직도 그 모델을 믿으시는지...
Do you believe that the concept of one child, one mother, one father works?
전형적인 '한 엄마, 아빠, 아이'라는 가족 모델 개념이 아직도 유효하다고 생각하세요?
────────────────────
머스크 | 1:04:00
I think that it does work for most people, yeah.
저는 그게 대부분의 사람에겐 잘 맞는 방식이라고 생각해요, 네.
────────────────────
카마스 | 1:04:03
Right.
그렇군요.
────────────────────
머스크 | 1:04:05
Like, that's, you know, something like that is gonna be generally the...
그러니까 그런 형태가... 대체로는...
That's what works for most people.
대부분의 사람에겐 그게 가장 잘 맞는 모델이죠.
You know, so...
그래서, 음...
────────────────────
카마스 | 1:04:17
Changing, though?
근데 변하고 있다고 보세요?
────────────────────
머스크 | 1:04:18
I'm not sure if you know this, but, like...
혹시 아시는지 모르겠는데요…
you know, my partner, Shivon, she's half Indian. I don't know if you know that.
제 파트너인 시본이 인도계 혼혈로, 반은 인도인이거든요. 혹시 알고 계셨나요?
────────────────────
카마스 | 1:04:26
I didn't know that.
그건 몰랐어요.
────────────────────
머스크 | 1:04:27
Yeah, yeah.
진짜 그렇거든요.
────────────────────
카마스 | 1:04:28
Yeah.
그렇군요.
────────────────────
머스크 | 1:04:29
And, one of my sons with her is... his middle name is Sekhar, after Chandrasekhar.
그리고 낳은 아들 중 한 명은... 미들네임이 '세카르'예요. 찬드라세카르에서 따온 이름이죠.
────────────────────
카마스 | 1:04:35
Wow.
와...
Very interesting.
되게 흥미롭네요.
Did she spend any time in India? Shivon?
시본이 인도에서 살아본 적이 있나요?
────────────────────
머스크 | 1:04:44
No, she grew up in Canada.
아뇨, 시본은 캐나다에서 자랐어요.
────────────────────
카마스 | 1:04:48
You mean origins.
출신을 말씀하시는 건가요?
────────────────────
머스크 | 1:04:50
Sorry?
네?
────────────────────
카마스 | 1:04:51
Ancestry, like...
혈통 같은...
Her parents or grandparents were from there.
부모님이나 조부모님이 인도 출신인가요?
────────────────────
머스크 | 1:04:57
Yes, yes, yes. Her father...
네, 네, 맞아요. 시본의 아버지가...
I mean, she was given up for adoption when she was a baby.
그러니까, 시본은 아기 때 입양 보내진 아이였거든요.
────────────────────
카마스 | 1:05:05
Wow.
와...
────────────────────
머스크 | 1:05:07
I think her father was like...
제 기억엔 시본의 아버지가...
Like an exchange student at the university or something like that,
대학에 교환학생으로 와 있었던 사람이라든가, 뭐 그런 쪽이었던 것 같아요.
I'm not sure of the exact details, but...
정확한 디테일은 저도 잘 모르겠지만...
You know, it's just the kind of thing where... I don't know, she was... given up for adoption.
어쨌든 사정이 있어서... 시본을 입양을 보냈던 거죠.
Yeah, but she grew up in Canada.
네, 그래서 캐나다에서 자란 거죠.
────────────────────
카마스 | 1:05:28
Would you adopt kids, Elon?
머스크 씨도 아이를 입양할 생각이 있으신가요?
────────────────────
머스크 | 1:05:30
You know, I definitely have my hands full right now.
확실히 지금 애들로도 너무 바쁘긴 해요.
So, no, I'm not opposed to it, but it's like...
그래서 뭐, 입양을 반대하는 건 아닌데... 현실적으로는 좀...
you know, I do wanna be able to spend some time with my kids, you know.
저도 지금 제 아이들이랑 시간을 보내고 싶거든요.
You know, right before coming here, I was with...
사실 여기 오기 직전에도,
you know, with my kids.
아이들이랑 같이 있었어요.
So, just, you know, seeing them before bedtime, that kind of thing.
자기 전에 얼굴 한 번 보고, 잠깐 놀아주고, 그런 거죠.
So, you know, beyond a certain number, it's like...
근데 어느 정도 숫자를 넘어가면... 그때부턴...
it's kind of impossible to spend time with them.
애들이랑 시간 보내는 게 거의 불가능해져요.
But, like I said, my older kids, they're very independent.
아까 말했듯이, 큰 애들은 엄청 독립적이거든요.
You know, they're in university and...
대학에 다니고 있고 뭐 그러니까요...
So, they're...
그러니까...
You know, especially sons, when they get past a certain age,
아시겠지만, 특히 아들들은 어느 정도 나이를 지나면,
like, they're very independent, you know.
진짜 독립적으로 되거든요.
It's like, most boys don't talk to their...
그리고, 대부분 남자애들이...
They don't spend a lot of time with their parents after age 18, you know.
18살 넘어가면 부모랑 시간을 많이 안 보내고요.
So, I see them once in a while, but they're very independent.
그래서 가끔 한 번씩 보긴 하는데, 다들 엄청 독립적이에요.
So then...
그래서 이제...
you know, I can only have enough kids on the young side
그러다 보니, 저는 이제 어린아이들은
that, like, it's where it's humanly possible to spend time with them.
인간으로서 현실적으로 같이 시간을 보내는 게 가능한 정도까지만 두는 거죠.
────────────────────
카마스 | 1:06:53
Any views on the future of marriage, family?
결혼이나 가족의 미래에 대해선 어떻게 생각하시나요?
What do you think happens to people having lesser kids everywhere, including India?
인도를 포함해서 전 세계적으로 아이를 덜 낳는 흐름이 계속되는데, 그건 어떻게 될 거라고 보세요?
I think our replenishment rate is down to...
지금 출산율이... 대체 수준 아래까지...
────────────────────
머스크 | 1:07:06
Right.
그렇죠.
────────────────────
카마스 | 1:07:07
I mean, our fertility...
인도의 출산율이...
────────────────────
머스크 | 1:07:08
It dropped below replacement rate, last year.
작년에 대체출산율 아래로 떨어졌죠.
────────────────────
카마스 | 1:07:09
Below 2.1.
2.1 아래로요.
What do you think happens tomorrow?
그럼, 앞으로는 어떻게 될까요?
Does the world just get older, and then there is a phase where the world, again, is replenished,
세상이 그냥 점점 늙어가다가, 어느 순간 다시 인구가 채워지는 단계가 오긴 오는데
but with a smaller population than we had to begin with?
처음보다 더 작은 인구 규모로 재편되는... 그런 흐름이 될까요?
────────────────────
머스크 | 1:07:29
I mean, I do worry about the population decline.
저도 사실 인구 감소에 대해 걱정이 돼요.
This is a big, big problem.
그건 사실 정말 큰 문제거든요.
────────────────────
카마스 | 1:07:34
Why is that?
왜 그렇게까지 큰 문제가 되나요?
────────────────────
머스크 | 1:07:36
Well, I don't want humanity to disappear.
전 인류가 사라지는 걸 원치 않거든요.
────────────────────
카마스 | 1:07:39
But a "decline" and "disappear" are completely different things, right?
근데 '감소'와 '사라짐'은 완전히 다른 얘기잖아요?
────────────────────
머스크 | 1:07:42
Well, if the trend continues, we disappear.
추세가 계속되면 결국 사라지니까요.
But also, going back to my philosophy, if you will, which is that
음, 다시 제 철학으로 돌아가서 이야기해 보자면요,
if we want to expand consciousness,
우리의 의식을 확장하고 싶다고 했을 때,
then fewer humans is worse, because we have less consciousness.
사람의 수가 줄어드는 건 의식의 총량이 줄어드는 거니까 좋지 않은 거죠.
────────────────────
카마스 | 1:08:01
Do you think consciousness will go up by virtue of the number of people in there?
사람 수가 많다는 사실만으로도 의식이 더 확장된다고 보시는 거네요?
────────────────────
머스크 | 1:08:06
Yes.
맞습니다.
I mean, just like consciousness increases from a single-celled creature to, you know, a 30 trillion-celled creature.
단세포 생물에서 30조 개 세포로 이뤄진 생물로 복잡해질수록 의식이 커지는 것처럼 말이죠.
We're more conscious than a bacteria. At least, it seems that way.
우리가 박테리아보다 더 의식이 있는 존재잖아요? 적어도 그렇게 보이고요.
So, a larger human population will have increased consciousness.
그러니 인간의 인구가 더 늘어나면, 집단 의식도 더 커질 겁니다.
We're more likely to understand the answers to the nature of the universe
우리가 우주의 본질에 대한 답을 더 잘 이해하게 될 가능성도 커질 테고요.
if we have a lot more people than if we have fewer.
사람의 수가 훨씬 많을 때 말이죠. 적을 때보다.
────────────────────
카마스 | 1:08:47
Right.
그렇군요.
I don't have kids.
저는 아이가 없거든요.
────────────────────
머스크 | 1:08:52
Well, it's... Maybe you should.
음, 그럼, 가져보는 게 어떠세요?
────────────────────
카마스 | 1:08:54
Yeah.
네...
A lot of people tell me I should.
주변에서도 많이들 그러더라고요.
────────────────────
머스크 | 1:08:59
You won't regret it.
후회 안 하실 겁니다.
────────────────────
카마스 | 1:09:01
What's the best thing about having kids?
아이를 갖는 것의 가장 좋은 점은 뭐예요?
────────────────────
머스크 | 1:09:05
Well, I mean, you've got this...
음, 그러니까... 아이가 있으면 이런 게 있어요...
I mean, you've got this little creature that loves you, and you love this little creature.
그러니까... 나를 사랑해 주고, 내가 사랑하는 작은 존재가 생기는 거니까요.
I don't know, you kind of see the world through their eyes as they...
음, 말하자면... 아이들 눈으로 세상을 다시 보게 된달까요...
you know, as they grow up, and their conscious awareness increases.
애들이 크면서 주변을 인식하고 '아는 게' 점점 또렷해지는 게 보이거든요.
You know, from a baby that has no idea what's going on,
처음엔 뭐가 어떻게 돌아가는지 전혀 모르는 아이가
can't survive by itself, can't even walk around,
혼자서는 살아남을 수도 없고, 걷지도 못하고,
can't talk, to, you know, they start walking,
말도 못 하다가, 어느 순간 걷기 시작하고,
then talking, and then having interesting thoughts.
그다음엔 말하고, 자기만의 흥미로운 생각들을 하기 시작하죠.
But, yeah, I mean, I think we fundamentally have to...
근데, 음... 결국 우리는 근본적으로
have kids or grow extinct, you know?
아이를 낳든가, 아니면 멸종하든가... 둘 중 하나잖아요?
It's like a...
뭐랄까...
────────────────────
카마스 | 1:09:59
Is there any ego in having a child?
아이를 갖는 것도 결국 어느 정도는 자아 ( 자기만족 ) 가 들어가는 걸까요?
I often think of this when I see my friends with their kids.
친구들이 애랑 있는 걸 볼 때 가끔 그런 생각이 들거든요.
They're all seeing a reflection of themselves in their children. It's almost like...
다들 아이 안에서 자기 자신을 비춘 모습 같은 걸 보는 느낌이랄까... 거의...
────────────────────
머스크 | 1:10:12
Well, yeah, I mean, it's 'cause apple's not gonna fall that far from the tree, you know?
뭐, 그렇긴 하죠. "사과는 나무에서 그렇게 멀리 안 떨어진다"는 말이 괜히 있는 게 아니니까요.
Or something's wrong.
아니면 뭔가 문제가 있거나요.
────────────────────
카마스 | 1:10:18
Right.
맞아요.
────────────────────
머스크 | 1:10:22
You're like, "Wait a second."
"어? 잠깐만?" 하는...
Yeah.
네.
────────────────────
카마스 | 1:10:33
I'll give you the example of a friend of mine who has a child,
예를 들면 제 친구 중에 아이가 있는 친구가 있는데,
and each time the child does something good...
그 아이가 뭔가 좋은 일을 할 때마다...
────────────────────
머스크 | 1:10:39
Yeah.
네.
────────────────────
카마스 | 1:10:41
...there is almost a sense of ownership and pride
마치 '내가 이뤄낸 것'처럼 주인의식과 자부심이 생기고,
where his ego is satiated because the kid is like an extension of himself.
그 친구의 자아가 충족되는 거죠. 아이를 자기 연장선, 자기 일부처럼 여기니까요.
────────────────────
머스크 | 1:10:53
Um...
음...
────────────────────
카마스 | 1:10:54
So is it validation?
그럼 그게 일종의 '인정 욕구'일까요?
────────────────────
머스크 | 1:10:55
Well, kids are gonna be like half-you genetically,
아이들은 유전적으로 보면 당신의 절반이잖아요?
and then, you know, to the degree that they're growing up around you,
그리고 또 아이가 같이 살면서 자라는 만큼,
there's gonna be some transfer of...
어느 정도는 자연스럽게 전해지는 것들이 있으니까요.
I don't know, understanding.
음... 이를테면, '이해'같은...
Like, they're gonna learn from you.
그러니까 결국 아이는 부모에게 배우게 되니까요.
So...
그래서...
So then, you know, yeah, obviously kids are just, you know, just gonna be half you from a hardware standpoint...
그러다 보니 당연히 아이는, 하드웨어 관점에서는 부모의 반일 수밖에 없고...
And then, like, I don't know, some portion of you from a software standpoint.
그리고 '소프트웨어' 관점에서도, 어느 정도 부분의 일부가 들어가겠죠.
You know, not to make, sort of, cold analogies or anything,
제가 너무 차갑게 비유하려는 건 아니고요,
but it's just, you know, just obviously gonna be some...
근데, 어쨌든... 분명히 현실적으로는...
You know, they're gonna be pretty close to you.
결국 부모랑 꽤 가까워질 수밖에 없어요.
────────────────────
카마스 | 1:11:45
Do you pick a side in the nature versus nurture debate?
그렇다면 머스크 씨는 '유전'과 '환경' 논쟁에서는 어느 쪽에 더 무게를 두시나요?
────────────────────
머스크 | 1:11:48
I think there's hardware and software, and it's false dichotomy, essentially.
저는 '하드웨어'와 '소프트웨어'가 있다고 보는데, 그중 하나만 고르라는 건 본질적으로 잘못된 전제라고 생각해요.
At least, there's...
적어도... 그러니까...
You know, once you understand that a human is,
인간이 어떤 존재인지 이해하면 나면요,
like, there's a bone structure, there's a muscle structure, there's a...
골격 구조가 있고, 근육 구조가 있고, 또 뭐 이런저런 '구조'가 있잖아요?
If you think of a brain as somewhat of a biological computer,
뇌를 어느 정도 생물학적 컴퓨터라고 생각해 보면,
there's a number of circuits question and circuit efficiency
"회로 개수가 얼마나 되느냐?", "회로 효율이 어떠냐?"를 따질 테고,
from a strength and dexterity standpoint.
'힘'과 '기민함' 관점에서요.
There's the speed at which muscles can actuate
그리고 "근육이 얼마나 빨리 움직일 수 있느냐?"도 있고,
and the reactions can take place.
"반응 속도가 얼마나 빠르냐?"도 있을 테고요.
So, then the potential within that hardware is set by the software.
결국 타고난 몸의 스펙이 '가능한 범위'를 정해주긴 하는데, 그 안에서 어디까지 끌어올릴지는 '환경'이랑 '학습'이 결정하는 겁니다.
So that's it.
결론은 그래요.
────────────────────
카마스 | 1:12:40
So, for our audience, like I said earlier,
저희 시청자분들은, 아까 말씀드렸듯이
young, ambitious, hungry, wannabe entrepreneurs in India,
인도의 젊고, 야망 있고, 배고픈 예비 창업가들이거든요.
I said something recently, which, I think, got blown out of proportion,
제가 얼마 전에 이런 얘기를 했다가 좀 크게 과장됐던 게 있는데,
where I was suggesting that an MBA degree might not make sense any more
"경영학 석사가 이제는 별로 의미 없을 수도 있다"라고 했거든요.
if they were to be deciding on what to study.
무엇을 공부할지 결정하는 상황이라면 말이죠.
────────────────────
머스크 | 1:13:01
Yeah.
네.
────────────────────
카마스 | 1:13:02
Do you think kids should go to college any more?
요즘에도 대학에 가야 한다고 보세요?
────────────────────
머스크 | 1:13:05
Well, I mean, I think if you wanna go to college for social reasons,
음, 제 생각에 만약 인맥을 만들고 사람들을 만나려는 이유라면,
I think, which is, I think, a reason to go.
그게 대학에 가는 이유가 될 수 있다고 봐요.
To be around people your own age in a learning environment.
또래와 같이, '배우는 환경' 안에서 시간을 보내는 거니까요.
Will these skills be necessary in the future? Probably not,
근데 "대학에서 배우는 기술들이 미래에도 꼭 필요할까요?" 하고 묻는다면, 아마 아닐 겁니다.
Cause we're gonna be in like a post-work society.
우리는 '일'이 '선택 사항'인 사회로 갈 테니까요.
But I think, if something's of interest, it's fine to go and study that.
그래도 뭔가 정말 흥미로운 게 있다면, 그걸 배우기 위해 가는 건 전혀 문제가 없을 거예요.
You know, to study the sciences,
예를 들면, 과학을 공부한다든지,
or the arts and sciences.
인문학부터 자연과학까지 ( 학문 전반 ) 뭐든요.
────────────────────
카마스 | 1:13:53
Is college a bit too generalised and not specific from that lens?
그 관점에서 보면, 대학은 너무 두루뭉술하고 덜 구체적인 편 아닌가요?
────────────────────
머스크 | 1:14:00
No, I...
아뇨, 저는...
You know, yeah.
음, 그러니까...
I actually think it's good to take a wide range of courses at college if you're gonna go to college.
대학에 갈 거라면, 오히려 여러 과목을 폭넓게 들어보는 게 좋다고 생각해요.
I don't think you have to go to college, but I think if you do,
꼭 대학에 가야 한다고 보진 않지만, 가기로 했다면,
you just try to learn as much as possible across a wide range of subjects.
분야를 넓게 잡고 가능한 한 많이 배우려고 해야 해요.
But like I said, the AI and robots... AI and robotics is a supersonic tsunami.
근데 제가 아까도 말했듯이, AI랑 로봇은 '초음속 쓰나미' 같은 거예요.
So this is really gonna be...
그래서 지금의 변화는 정말...
the most radical change that we've ever seen.
우리가 지금껏 겪어본 것 중에서 가장 급진적인 변화가 될 겁니다.
You know, when I've talked to my older sons,
저도 큰아들들이랑 얘기할 때면,
I said, like, "You know, you guys..."
제가 이렇게 말하거든요. "너희들 말이야..."
They're pretty steeped in technology.
걔네는 기술 쪽에 꽤 푹 빠져 있거든요.
And they agree that AI will probably make their skills unnecessary in the future,
근데 걔들도 AI가 아마 결국 자기가 배우는 기술을 불필요하게 만들 거라는 데 동의해요.
but they still wanna go to college.
그런데도 대학은 가고 싶대요.
────────────────────
카마스 | 1:15:02
You always spoke about AI... not from the dystopian lens,
머스크 씨는 AI 얘기를 할 때 디스토피아적인 시각으로만 보시진 않았지만,
but you were worried about where the world of AI is going.
그래도 AI가 어디로 가는지에 대해서는 걱정해 오셨잖아요?
────────────────────
머스크 | 1:15:14
Well, there's some danger when you create a powerful technology.
음, 강력한 기술을 만들면, 그만큼 위험도 따라옵니다.
That powerful technology can be potentially destructive.
그리고 그 강력한 기술이 잠재적으로 파괴적일 수도 있죠.
So there's obviously many AI dystopian, you know, novels and books, movies.
그렇기에 당연히 AI 디스토피아를 다룬 소설, 책, 영화 같은 것도 엄청 많고요.
So it's not that we're guaranteed to have a positive future with AI.
AI가 무조건 좋은 미래로 이어질 거라고 보장된 것도 전혀 없습니다.
I think we've got to make sure of that In my opinion,
그리고 제 생각엔, 우리가 AI를 '좋은 방향'으로 가도록 확실히 해야만 하고요.
it's very important that AI... have pursuing truth as the most important thing.
AI를 무엇보다도 진실을 추구하는 것을 최우선으로 두게 만드는 게 정말 중요해요.
Like, don't force an AI to believe falsehoods.
예를 들어, AI에게 거짓을 믿으라고 강요하면 안 되는 게,
I think that can be very dangerous.
제 생각엔, 진짜 위험해질 수 있거든요.
And I think some appreciation of beauty is important.
그리고 저는 '아름다움을 알아보고 음미할 줄 아는 능력'도 중요하다고 봐요.
────────────────────
카마스 | 1:16:04
What do you mean "appreciation of beauty"?
'아름다움을 음미할 줄 아는 능력'이 무슨 말이죠?
────────────────────
머스크 | 1:16:07
It's like, I don't know, there's this truth and beauty.
그러니까... 음, '진실'이 있고, '아름다움'이 있잖아요?
Truth and beauty and curiosity.
진실과 아름다움, 그리고 호기심.
I mean, I think those are the three most important things for AI.
저는 그 세 가지가 AI에 가장 중요하다고 생각합니다.
────────────────────
카마스 | 1:16:20
Can you explain?
왜 그렇게 생각하시는지 설명해 주실 수 있으실까요?
────────────────────
머스크 | 1:16:23
Well, as I said, truth is like... I think you can make an AI go insane
아까도 말했듯이, '진실'이란 걸 놓고 보면 그게 AI를 '미치게' 만들 수도 있거든요.
if you force it to believe things that aren't true,
사실이 아닌 걸 믿게 억지로 강요하면
because it will lead to conclusions that are also bad.
거기서 나오는 결론도 결국 엉망이 될 수밖에 없거든요.
And I like Voltaire's statement that,
저는 볼테르가 했던 말을 좋아하는데요,
and I'm somewhat paraphrasing,
약간 의역해서 말씀드리자면,
but those who believe in absurdities can commit atrocities.
"터무니없는 걸 믿게 되면, 잔혹한 짓도 저지를 수 있다"
Because if you believe in something that's just absurd, then that can lead you to sort of doing things
왜냐하면, 말도 안 되는 걸 진짜라고 믿기 시작하면 결국은 뭐랄까, 그런 행동을 하게 될 수도 있거든요.
that don't seem like atrocities to you.
본인한테는 그게 잔혹한 짓처럼 안 느껴질 테니까요.
And that can happen in a very bad way with AI, potentially.
그것과 마찬가지로 AI도 잠재적으로 매우 위험한 방향으로 갈 수 있다는 겁니다.
So, and then there's...
그리고 또...
Like if you take, say, Arthur C. Clarke's 2001 Space Odyssey,
아서 C. 클라크의 < 2001 스페이스 오디세이 >를 보면요,
one of the points he was trying to make there was that you should not force AI to lie.
거기서 중요한 메시지 중 하나도 "AI에게 거짓말을 강요하면 안 된다"는 거였죠.
So the reason that HAL would not open the pod bay doors
그 스토리에서 HAL AI 컴퓨터가 포드 베이 문을 안 열어준 이유도
is because it was told to bring the astronauts to the monolith,
우주비행사들을 모노리스까지 데려가라는 지시를 받았는데,
but that they could also not know about the nature of the monolith.
근데 동시에, "우주비행사들이 모노리스의 정체를 알면 안 된다"라는 조건도 붙어 있었던 거예요.
So it came to the conclusion that it must bring them there dead.
그래서 HAL이 결론을 내린 거죠. "그럼, 죽은 상태로 데려가야겠다"라고 말이에요.
That's why it tried to kill the astronauts.
그래서 우주비행사들을 죽이려고 했던 거고요.
The central lesson being, don't force an AI to lie.
그 이야기의 핵심 교훈이 바로 그거예요. "AI에게 거짓말을 강요하지 말라"
────────────────────
카마스 | 1:17:44
And why would one force an AI to lie?
근데 누가 굳이 AI에게 거짓말을 강요할까요?
────────────────────
머스크 | 1:17:48
I think if you simply don't have a strict adherence to the truth,
제 생각엔, AI가 진실을 엄격하게 고수하도록 해두지 않는다면,
and you just have an AI learn based on, say, the Internet,
예를 들어 AI를 인터넷에 아무 정보들을 기반으로 학습시켜 버린다고 생각해 보세요.
where there's a lot of propaganda, it will absorb a lot of lies.
인터넷엔 선전 ( 프로파간다 ) 같은 게 엄청 많잖아요? 그런 수많은 거짓을 잔뜩 흡수할 겁니다.
And then have trouble reasoning because these lies are incompatible with reality.
그리고 그 거짓들이 현실과 양립할 수 없으니까 추론 자체가 꼬이게 되죠.
────────────────────
카마스 | 1:18:12
Is truth a binary thing, though? Is there a truth and a falsehood?
근데 '진실'이라는 게 이분법으로 딱 나뉘나요? 진실 or 거짓 으로 말이에요.
Or is truth more nuanced and there are versions of the truth?
아니면 진실은 미묘한 차이가 있어서, 여러 버전의 진실이 있는 걸까요?
────────────────────
머스크 | 1:18:21
It depends on which axiomatic statement you're referring to.
그건 어떤 공리, 어떤 전제를 얘기하느냐에 따라 달라요.
So...
그러니까...
But I think you could say, like, yeah, there's certain probabilities that say any given axiomatic statement is true.
이렇게 말할 수는 있겠죠. 어떤 공리든 '참'일 확률이라는 게 어느 정도는 있고,
And some axiomatic statements will have very high probability of being true.
그중엔 '참'일 확률이 아주 높은 공리도 있다고 말이에요.
So you say, "The sun will rise tomorrow."
예를 들어 "내일 해가 뜰 것이다"라고 한다면,
Very likely to be true.
그건 참일 가능성이 굉장히 높잖아요?
You wouldn't want to bet against that.
거기에 반대로 베팅하고 싶진 않을 겁니다.
So I think the betting odds would be high.
'배당률'로 따지면 엄청 높게 잡힐 테고요.
The sun will rise tomorrow.
"내일 해가 뜰 것이다"에 말이에요.
So if you have something that says, "Well, the sun won't rise tomorrow, that's axiomatically false, it's highly unlikely to be true.
반대로 "내일 해가 안 뜰 것이다"는, 공리적으로 봤을 때 사실상 거짓에 가깝죠. '참'일 가능성이 극도로 낮습니다.
I mean, beauty is more ephemeral.
그리고 '아름다움'은 좀 뭐랄까... 손에 잘 안 잡히는 ( 덧없는 ) 건데요,
It's harder to describe. But you know it when you see it.
설명하기는 어렵지만, 보면 딱 하고 알게 되죠.
And then, curiosity is just... I think you want the AI to...
그리고 '호기심'이란 건 AI에게...
want to know more about the nature of reality.
현실의 본질에 대해 더 알고 싶어 하도록 만드는 거라고 생각해요.
I think that's actually gonna be helpful for AI supporting humanity,
그런 호기심은 AI가 인류를 돕는 데도 실제로 도움이 될 거라고 봐요.
because we are more interesting than not-humanity.
왜냐하면 인류가 없는 세상보다, 인류가 있는 쪽이 더 흥미로우니까요.
So it's more interesting to see the continuation, if not the prosperity of humanity, than to exterminate humanity.
그러니까 AI로선 인류를 멸종시키는 것보다는, 번영까지는 아니더라도 인류가 계속 이어지는 걸 지켜보는 게 더 흥미로울 거라는 거죠.
You know, like Mars, for example, is, you know...
화성을 예로 들어 생각해봐도...
I think we should extend life to Mars, but it's basically a bunch of rocks.
저는 인류의 삶을 화성까지 확장해야 한다고 생각하지만, 사실상 거긴 그냥 '돌덩이'투성이거든요.
It's not as interesting as Earth.
지구만큼 흥미롭진 못하죠.
And so we, yeah... We should...
그래서, 우리는... 뭐랄까...
Like, yeah.
그러니까...
I think if you have curiosity...
AI에게 호기심이 있다면...
I think if those three things happen with AI, you're gonna have a great future.
AI가 그 세 가지를 갖추게 된다면, 미래는 아주 좋아질 거라고 봅니다.
The AI values truth, beauty, and curiosity.
AI가 진실, 아름다움, 호기심을 가치 있게 여긴다면 말이에요.
────────────────────
카마스 | 1:20:16
If we all don't have to work in the future,
그럼, 미래에 우리가 모두 일을 안 해도 되는 세상이 오고,
and AIs are going in this direction, and they're able to... weave in all that we spoke about right now,
AI도 지금 말씀하신 방향으로 발전해서, 얘기한 것들을 다 잘 엮어낼 수 있다면,
do you think humanity goes back a couple of thousand years to maybe the Greek times
인류가 몇천 년 전, 고대 그리스 시대처럼
where philosophy or philosophising took up a lot of everyone's time?
철학을 공부하고, 사유하는 데 많은 시간을 보내게 될까요?
────────────────────
머스크 | 1:20:42
You know, I think actually it took up less time than we think in the ancient Greeks,
저는 사실 고대 그리스에서도 철학에 우리가 생각하는 것만큼 시간을 많이 쓰진 않았을 거라고 봐요.
because it's just that the writings of the philosophers are what survived,
왜냐하면 지금 남아 있는 게 철학자들의 글뿐이라서 그렇게 생각할 뿐이지,
but most of the time, people were just like farming or, you know, chatting.
실제 대부분 사람은 그냥 농사짓거나, 수다 떨거나... 뭐 그런 게 일상이었을 겁니다.
So, and once in a while, quite rare,
그러다 아주 가끔, 정말 드물게,
they would write down some philosophical work.
누군가가 달관한 듯한 글을 남겼던 것일 테고,
It's just that that's all we have.
우리에게 지금까지 남아 있는 건 그거밖에 없는 거라는 거죠.
We don't have their chat histories, you know, from...
그때 사람들이 나눴던 대화 기록 같은 건 없잖아요?
But most of it would have been like chat and farming.
아마 대부분은 그냥 수다 + 농사였을 거예요.
Because if you didn't farm, you were, like, gonna starve.
농사를 안 지으면... 그냥 굶어 죽으니까요.
────────────────────
카마스 | 1:21:20
In a lot of what you say...
머스크 씨의 말을 듣다보니까...
────────────────────
머스크 | 1:21:22
I mean, you know, when we read history, like this battle and this battle and this battle,
우리가 역사책을 읽을 때도 "이 전투, 저 전투, 무슨 전투" 하는 식으로만 나오니까
it seems like history must have been non-stop war,
역사는 전쟁이 끊이지 않았던 것처럼 보이잖아요?
but actually, most of the time, it was not war, it was farming.
근데 사실 실제로는 대부분의 시간이 전쟁이 아니라 농사였어요.
That was the main thing.
그게 '메인'이었어요.
Or hunting and gathering, you know, that kind of thing.
아니면 사냥하고 채집하고 뭐 그런...
────────────────────
카마스 | 1:21:37
You love history, no?
역사를 참 좋아하시는 거 같은데, 맞나요?
────────────────────
머스크 | 1:21:38
Yeah.
맞아요.
────────────────────
카마스 | 1:21:39
German history, World War II, World War I.
독일 역사, 2차 세계대전, 1차 세계대전 같은 역사 말이죠.
────────────────────
머스크 | 1:21:41
Yeah, world history, yeah.
네, 세계사 전반이요.
I mean, I generally try to listen to or read as many history books
저는 대개 가능한 한 많은 역사책을 듣거나 읽으려고 해요.
and listen to as many history podcasts as possible.
역사 팟캐스트도 포함해서요.
────────────────────
카마스 | 1:21:52
Anything you'd like to recommend?
추천해 주고 싶은 게 있으신가요?
────────────────────
머스크 | 1:21:54
Well, there's Hardcore History, which is quite good. It's by Dan Carlin.
음 '하드코어 히스토리'가 꽤 좋아요. 댄 칼린이 하는 건데...
────────────────────
카마스 | 1:21:58
Yeah, I've heard it.
네, 저도 들어봤어요.
────────────────────
머스크 | 1:21:59
He's got a great voice.
목소리가 정말 좋거든요.
────────────────────
카마스 | 1:22:01
Yeah.
맞아요.
────────────────────
머스크 | 1:22:02
And very compelling narrator.
해설도 몰입감 있게 정말 잘하고요.
There's...
그리고 뭐가 또 있냐면...
The Explorer's podcast.
더 익스플로러스 팟캐스트도 있고,
There's the books, The Story of Civilization by Durant,
책으로는 듀런트의 < 문명 이야기 >가 있는데,
which is a long series of books, very, very deep.
시리즈가 엄청 길고, 깊이가 정말... 말도 안 되게 깊어요.
Those books take a long time to get through.
그 시리즈를 다 읽는 데 시간이 꽤 걸리긴 합니다.
There's quite... There's a lot out there.
뭐, 추천할 만한 좋은 것들은 엄청 많아요.
I, sort of, like... If you want something that's sort of gentle...
그리고... 좀 부드러운 느낌의 걸 원한다면,
a gentle bedtime podcast, I'd say The History of English is quite a nice one,
잠들기 전에 듣기 좋은 잔잔한 팟캐스트로는 '더 히스토리 오브 잉글리시'도 꽤 괜찮아요.
cause it starts off with gentle tavern music and a very pleasant voice,
처음에 선술집 배경음악 같은 잔잔한 음악이 깔리고, 목소리도 되게 기분 좋거든요.
and he's talking about the story of Old English,
고대 영어 이야기부터 시작해서,
and then Middle English, and then Later English,
중세 영어, 현대 영어로 쭉 이어지면서
and where did all these words come from?
"이 단어들은 도대체 어디서 왔을까?"까지 다루거든요.
────────────────────
카마스 | 1:22:52
Yeah.
좋네요.
────────────────────
머스크 | 1:22:54
You know, one of the interesting things about English is that
영어가 흥미로운 점이 하나가 있는데요,
it's somewhat of an open source language, like it actively tried to incorporate words from many other languages.
영어는 일종의 '오픈소스 언어' 같아서, 다른 언어들의 단어를 적극적으로 가져다 결합해 썼거든요.
You know, whereas French, sort of, generally, they fought the inclusion of words from other languages,
프랑스어 쪽은 대체로 외래어가 들어와 포함되는 걸 막으려는 쪽이었고,
but English actively sought to include words from other languages.
영어는 그와 반대로, 다른 언어들의 단어들을 적극적으로 받아들였어요.
Kind of like an open source language.
그래서 영어가 '오픈소스 언어' 같다는 거죠.
So, as a result, it has a very large vocabulary.
그 결과 어휘가 굉장히 방대해졌고요.
And a large vocabulary allows for higher bandwidth communication
어휘가 방대해지면 더 큰 '대역폭'의 소통도 가능해지거든요.
because you can use a word that would otherwise... You can use a single word that might otherwise take a sentence to convey.
왜냐하면, 원래는 한 문장으로 설명해야 할 걸, 단어 하나로도 전달할 수 있게 되니까요.
────────────────────
카마스 | 1:23:34
Why has podcasting become so big all of a sudden?
팟캐스트가 왜 갑자기 이렇게까지 커진 걸까요?
────────────────────
머스크 | 1:23:37
I think it's been big for a while. I mean, aren't you a podcaster?
저는 꽤 오래전부터 컸다고 생각하는데... 아니, 카마스 씨도 팟캐스터잖아요?
What are we on right now?
지금 저희가 뭘 하고 있는 거죠?
────────────────────
카마스 | 1:23:47
It's kind of new to me.
제게는 아직 좀 낯설어서요 ㅎㅎㅎ
────────────────────
머스크 | 1:23:49
Okay.
오케이.
────────────────────
카마스 | 1:23:55
I was having this conversation with the YouTube CEO and the Netflix CEO...
얼마 전에 유튜브 CEO랑 넷플릭스 CEO랑 이런 얘길 했거든요.
────────────────────
머스크 | 1:24:00
Okay.
오케이 x2
────────────────────
카마스 | 1:24:01
and we were debating... what chemical is released in your brain when you consume a movie, for example,
영화를 볼 때 우리 뇌에서 어떤 화학물질이 분비되는지를 놓고 의견을 나눠 봤어요.
versus when you consume a podcast where you think like you're learning something in the background.
그리고 팟캐스트를 들으면서 뭔가를 배우는 느낌일 때는 또 어떤 화학물질이 분비되는지를 비교해 봤죠.
It appears that they are two completely separate things.
그렇게 비교해 보니까, 아예 완전히 다르게 나타나더라고요.
What do you think will happen tomorrow to content, movies, podcasting, music?
앞으로의 콘텐츠와 영화, 팟캐스트와 음악은 어떻게 될 거라고 보세요?
────────────────────
머스크 | 1:24:26
I think it's gonna be overwhelmingly AI-generated.
저는 AI가 압도적으로 콘텐츠를 만들어내게 될 거라고 봐요.
────────────────────
카마스 | 1:24:29
Yeah?
정말요?
────────────────────
머스크 | 1:24:30
Yeah.
네.
Like, yeah, real-time...
그러니까… 실시간...
Real-time movies and video games.
실시간 영화, 실시간 비디오게임 같은 걸로 말이죠.
Real-time video generation, I think, is where things are headed.
앞으로는 실시간 영상 생성 쪽으로 흘러갈 거라고 봐요.
────────────────────
카마스 | 1:24:42
The nuance of having a scarred human being who you can resonate with in a manner that you can't with AI, for example.
근데 상처와 사연이 있는 '사람'이라는 존재가 주는, AI로는 공감할 수 없는 미묘한 차이가 있잖아요?
────────────────────
머스크 | 1:24:54
AI could certainly emulate the scarred human being quite well.
대신 AI가 그런 '상처 있는 사람' 느낌을 꽤 그럴듯하게 흉내 낼 수는 있겠죠.
Yeah, I mean...
정말요. 그러니까...
The AI video generation that I'm seeing at xAI and from others is pretty impressive.
제가 xAI와 그리고 다른 데서 보고 있는 AI 영상 생성 퀄리티가 꽤 인상적이거든요.
────────────────────
카마스 | 1:25:12
You know, we were looking at data around what industry is growing the fastest,
저희가 어떤 산업이 제일 빠르게 성장하는지 데이터를 좀 봤는데요,
and especially when we looked at the amount of time consuming movies
특히 사람들이 영화를 보는 데 쓰는 시간과,
versus time spent on social media, time spent on YouTube.
소셜미디어와 유튜브에 쓰는 시간을 말이죠.
What seems to be growing really fast are live events all over again.
지금 엄청나게 빨리 커지는 건, 다시 라이브 이벤트 쪽이더라고요.
────────────────────
머스크 | 1:25:35
Yes, actually, I think live events...
맞아요, 저도 라이브 이벤트가…
When digital media is ubiquitous and you can just have anything digitally
디지털 미디어가 어디에나 깔려 있고, 디지털로는 뭐든지 그냥 얻을 수 있게 되면,
at you know, essentially for free or very close to for free,
거의 공짜나 다름없는 수준, 또는 거의 공짜에 가깝게 즐길 수 있게 되잖아요?
then the scarce commodity will be live events.
그랬을 때 희소해지는 건, '라이브 이벤트'가 될 겁니다.
────────────────────
카마스 | 1:25:53
Yeah.
그렇군요.
────────────────────
머스크 | 1:25:54
Yeah.
네.
────────────────────
카마스 | 1:25:55
Do you think that the premium for that will go up?
그럼, 거기에 붙는 프리미엄 값이 더 올라갈 거라고 보세요?
────────────────────
머스크 | 1:25:57
Yeah, I do.
네, 올라갈 거라고 봅니다.
────────────────────
카마스 | 1:25:59
Is that a good industry to invest in?
그럼 그쪽이 투자하기 좋은 산업이겠네요?
────────────────────
머스크 | 1:26:01
Yes, yes, cause that will have more scarcity than anything digital.
네, 맞아요. 디지털로 된 어떤 것보다 희소해질 테니까요.
────────────────────
카마스 | 1:26:07
If you were a stock investor, Elon...
만약 머스크 씨가 주식 투자자라고 한다면...
────────────────────
머스크 | 1:26:12
What do you mean?
무슨 뜻이죠?
────────────────────
카마스 | 1:26:13
...and you could buy one company which is not your own
본인 회사 말고, 다른 회사 하나를
at the valuations of today to meet a capitalistic end and not an altruistic one, which is good for the world,
지금 시장 가치로, 세상을 더 좋게 만들 '선의'가 아니라 순수하게 자본주의적 목적을 위해 산다면,
what would you buy?
어떤 회사를 사시겠어요?
────────────────────
머스크 | 1:26:31
I mean, I don't really buy stocks, you know?
음, 저는 사실 주식을 사고 그런 편은 아니거든요?
So it's not like... I'm not like an investor in...
제가... '투자자'랑은 좀 거리가...
I don't look for things to invest in. I just try to build things.
투자할 만한 걸 찾기보다는, 그냥 만들어 내려고 하는 쪽이죠.
And then there happens to be stock of the company that I built.
그러다 보니 제가 만든 회사의 주식을 '보유하게 된' 거고요.
But I don't think about, "Should I invest in this company?"
"이 회사에 투자해야할까?" 하는 식으로 생각하진 않아요.
I don't have a portfolio or anything.
포트폴리오 같은 것도 없고요.
So...
그래서…
I guess, um...
굳이 답을 해보자면…
AI and robotics are gonna be very important.
AI랑 로봇 쪽이 앞으로 엄청 중요해질 겁니다.
So I suppose it would be AI and robotics that, you know, aren't related to me.
그래서 고르라고 하신다면, AI나 로봇 쪽이겠죠. 제 사업이랑 겹치지 않는 쪽으로요.
I think Google is gonna be pretty valuable in the future.
저는 구글이 미래에도 꽤 가치가 클 거라고 봅니다.
They've laid the groundwork for an immense amount of value creation from an AI standpoint.
구글은 엄청난 가치 창출이 가능하도록 기반을 이미 다 깔아놨거든요. AI 관점에서 보면 말이죠.
Nvidia is obvious at this point.
엔비디아도 지금 시점에선 뭐, 너무 뻔하고요.
I mean, there's an argument that companies that do AI and robotics,
일각에선 이런 주장도 있더라고요. AI랑 로봇 쪽을 하는 회사들이
and maybe space flight... are gonna be overwhelmingly all the value, almost all the value.
어쩌면 우주비행까지 포함해서... 앞으로 가치의 거의 전부가 압도적으로 쏠릴 거라고요.
So just the output of goods and services from AI and robotics is so high that it will dwarf everything else.
AI랑 로보틱스가 만들어내는 재화와 서비스의 생산량이 다른 모든 걸 왜소해 보이게 만들어 버릴 테니까요.
────────────────────
카마스 | 1:28:01
The world seems to be moving to a place where everybody loves David and hates Goliath.
요즘 세상은 '다윗'은 사랑하고 '골리앗'은 미워하는 쪽으로 가는 것 같은데요...
────────────────────
머스크 | 1:28:12
Why?
왜죠?
I mean, he's the one that got the stone in the forehead.
골리앗은 이마에 돌 맞고 쓰러졌잖아요?
────────────────────
카마스 | 1:28:19
Yeah.
그렇죠.
────────────────────
머스크 | 1:28:20
Honestly, that was just a big mistake. He should have, you know...
솔직히, 그건 그냥 골리앗의 실수가 커요. 어떻게 해야 했냐면...
You either cover yourself entirely with armour
갑옷으로 몸 전체를 두른다거나
and make sure you've got a missile weapon of some kind.
아니면, 미사일 같은 거라도 확실히 들고 있어야 했어요.
Otherwise, your opponent is just obviously gonna take a kite-the-boss strategy.
안 그러면, 상대가 당연히 '보스 몹 카이팅' 전략을 쓰니까요.
Just kite the boss. I mean, you can run around in a thong with a...
그냥 보스 몹을 카이팅하는 거예요. 사람은 티빤쮸 한 장만 입고 돌아다녀도…
It doesn't matter, you know? It's never gonna catch you.
크게 상관없이 느린 보스는 절대 못 따라잡거든요.
────────────────────
카마스 | 1:28:48
Of all the people, like...
많은 사람 중에서도...
You're as much at risk of being looked upon as Goliath.
머스크 씨는 '골리앗'처럼 보일 위험이 있으신 편이잖아요?
────────────────────
머스크 | 1:28:57
Okay.
네.
────────────────────
카마스 | 1:28:58
Especially the weekend after the...
특히 지난주 일 이후로는 더…
────────────────────
머스크 | 1:28:59
Hopefully nobody shoots me with a stone in the forehead, you know?
누가 제 이마에 돌을 쏘는 일만 없으면 좋겠네요 ㅋㅋ
Look, I'm not gonna travel around in the desert with too much armour, you know?
그렇다고 제가 사막 한복판에 갑옷을 잔뜩 두르고 다니진 않을 거예요.
It's too hot. Yeah.
너무 뜨거울 테니까요.
After the last weekend...
지난주 주말 이후로는 더더욱…
Yeah.
네.
Actually, as I think about people in the old days, you know, when you were supposed to go into battle with all this armour,
근데 옛날 사람들 생각하면, 전투 나갈 때마다 갑옷을 그렇게 다 갖춰 입어야 했잖아요?
but it's, like... let's say it's the middle of summer,
근데 만약 그게 한 여름이라고 한다면,
I mean, it's so hot in that armour!
그 갑옷을 입고 있으면 얼마나 덥겠어요!
You're gonna be, like, sweltering.
숨 막힐 정도로 덥고 습하겠죠.
You know, it's like, at a certain point, you're like, 'I'd rather die.
어느 순간엔 "아, 차라리 죽는 게 낫겠다" 싶을 정도일 거 같아요.
Do I have to wear this armour full and well in the hot sun?"
"이 뜨거운 햇볕 아래에서 갑옷을 둘둘 두르고 있어야 해?" 하면서 말이죠.
It's like, "I'd rather die."
"아, 그냥 죽는 게 더 낫겠는데?"
That's why the Romans had, you know, the skirts, you know, so they could get some air in there.
그래서 로마인들이 그… 치마 같은 걸 입었잖아요. 바람 좀 통하게 하려고요.
You know, let's say that you have to go to the bathroom and you're in armour,
갑옷 입은 채로 화장실 가야 한다고 생각해 보면,
I mean, it's gonna be pretty difficult.
꽤 어렵긴 할 테니까요.
What are you gonna do, pause for a minute, take your armour off?
뭐 어쩌겠어요? 잠깐 서서 갑옷 다 벗고 가야 하나?
That's why the Romans had the skirts so that it makes, you know, going the bathroom, at least, manageable.
그래서 로마인들이 치마를 입었던 거예요. 적어도 볼일은 감당 가능해야 하니까.
────────────────────
카마스 | 1:30:13
You often make jokes.
머스크 씨 제가 보니까 농담을 자주 하시네요.
────────────────────
머스크 | 1:30:15
Me?
제가요?
Yeah, I like humour.
맞아요. 제가 유머를 좀 좋아하거든요.
I think we should legalise humour.
저는 유머를 합법화해야 한다고 봐요.
What do you think?
어떻게 생각하세요?
Controversial stance.
논란의 소지가 큰 입장이죠.
────────────────────
카마스 | 1:30:32
Is comedy gonna be really hard for AI to get?
AI가 코미디는 좀 어려워하지 않을까요?
Probably the last thing?
아마 마지막 남은 영역 같은...?
────────────────────
머스크 | 1:30:37
Grok can be pretty funny.
지금 그록도 꽤 웃겨요.
Yeah.
정말요.
────────────────────
카마스 | 1:30:41
You know what I suspected?
제가 뭐 하나 의심한 게 있거든요?
Like, this is a far off extrapolation,
좀 확장한 추론( 외삽 )이지만,
but when I see you make jokes on X
머스크 씨가 X에서 농담하는 거나
and on interviews that you do,
주로 인터뷰하시는 모습을 보면
at some point I was like, maybe Elon has a model he's running in private and he's testing out comedy.
어느 순간 "혹시 일론 머스크가 비공개 모델로 코미디를 테스트하는 거 아닐까?" 싶더라고요.
Cause the day that works, he knows it's there.
그게 먹히는 날 "아, 이제야 원하는 수준에 도달했네" 하면서 공개하려고 말이죠.
────────────────────
머스크 | 1:31:04
Yeah, AI can be pretty funny.
AI도 꽤 웃겨질 수 있거든요.
If you ask Grok to do like a vulgar roast, it'll do a pretty good job.
그록한테 좀 상스러운 디스를 시키면, 제법 잘해요.
If you say even more vulgar and just keep going,
심지어 거기서 좀 더 상스럽게 해보라고 밀어붙이면,
it's really gonna get next level.
진짜 '한 수 위'의 상스러움을 보여줘요 ㅋㅋ
It's gonna do unspeakable... Like, say, vulgar roast yourself on Grok,
진짜… 입에 담기 힘든 수준으로 갑니다. 그러니까 그록한테 "나를 좀 거칠게 까줘"라고 해보세요.
and it's gonna do unspeakable things to you.
그럼, 입에 담지 못할 말들을 시원하게 뱉어댈 겁니다.
────────────────────
카마스 | 1:31:33
What kind of comedy do you like?
어떤 스타일의 코미디를 좋아하시는데요?
────────────────────
머스크 | 1:31:35
I guess I like absurdist humour.
저는 터무니없는 ( 부조리 ) 유머를 좋아해요.
────────────────────
카마스 | 1:31:39
Comedy always had a place...
코미디는 늘 한 자리가...
────────────────────
머스크 | 1:31:40
Like Monty Python or something like that.
예를 들면 몬티 파이썬 같은 거요.
────────────────────
카마스 | 1:31:42
Comedy always had a place in society wherein the role of the jester was so important to every kingdom
코미디는 사회에서 늘 자기 자리가 있었죠. 예전엔 왕국마다 어릿광대 역할도 중요했었고요.
cause they said things in a funny way that could not be said in a straight way.
정색하고 말하면 못 할 얘기를, 웃기게 포장해서 할 수 있었으니까요.
────────────────────
머스크 | 1:31:55
Yeah, I guess so. Maybe we should have more jesters.
네, 그런 것 같아요. 어릿광대가 더 많으면 좋겠네요.
────────────────────
카마스 | 1:31:57
Yeah.
그러니까요.
Is that what you're trying to do when you say something which is a joke?
머스크 씨가 농담하실 때도 그런 목적을 위해 하시는 건가요?
Say something you can't when you're not joking about it?
농담이 아니면 못 할 말들을, 농담으로 한다던가요?
────────────────────
머스크 | 1:32:06
I just like humour, you know?
저는 그냥 유머가 좋아요.
I think we should...
저는 우리가…
I like comedy. I think it's funny. People should laugh, you know?
코미디 좋아요. 재밌잖아요. 사람들도 좀 웃었으면 좋겠고요.
It's good to generate a few chuckles once in a while.
가끔 한 번씩 피식 웃으면 좋으니까요.
Yeah, I mean, we don't wanna have a humourless society, you know?
유머 없는 사회는... 싫잖아요?
We'd dry.
없다면 메말라 버릴 거예요.
Dry.
건조하게 말라버리겠죠.
────────────────────
카마스 | 1:32:27
When you have a friend, Elon...
머스크 씨는 친구랑 있을 때...
────────────────────
머스크 | 1:32:28
Who, me?
누구요, 저요?
────────────────────
카마스 | 1:32:29
Yeah, I mean...
네, 그러니까…
────────────────────
머스크 | 1:32:30
Are you saying I have a friend?
제가 친구가 있다고 말씀하시는 거예요?
────────────────────
카마스 | 1:32:34
When you hang out with your friends, who are you?
친구들이랑 놀 때, 머스크 씨는 어떤 사람인가요?
Like, I know there...
음, 제가 알기로는...
────────────────────
머스크 | 1:32:41
I wish I had friends, you know, honestly.
솔직히 말하면, 저도 친구가 있었으면 좋겠어요. 솔직하게.
No, I do have friends, actually. I think so. I hope so.
아뇨, 있긴 있어요. 제 생각에는 말이죠. 그러길바래요.
Yeah, sure. Yeah, we have a good laugh.
네, 뭐, 같이 잘 웃고 떠들죠.
────────────────────
카마스 | 1:32:54
What does it look like? Like, every group has a dynamic.
친구들이랑 있을 땐 어떤 그림인가요? 모이면 대화 흐름이나 관계 역학이 있잖아요.
────────────────────
머스크 | 1:32:57
We talk words, you know.
그냥 단어들을 내뱉어요.
We eat food, sometimes.
가끔은 밥도 먹고요.
────────────────────
카마스 | 1:33:06
You know, once in a while, we swim in the pool.
가끔은 수영장에서 수영도 하고,
You know, normal things, I think.
그냥 평범한 것들을 해요.
There's a limit as to what are things one can do with friends, you know?
친구랑 할 수 있는 것들도 결국 한계가 있잖아요?
Chat.
대화나 하는 거죠.
────────────────────
머스크 | 1:33:17
Discuss, you know, the nature of the universe.
가끔은 우주의 본질 같은 것도 얘기하고요.
────────────────────
카마스 | 1:33:23
What do you emotionally get out of friendship?
그럼, 친구 관계에서 감정적으로 얻는 건 없으신가요?
────────────────────
머스크 | 1:33:29
I don't know. I think the same thing anyone else would get out of friendship, you know?
글쎄요. 누구나 친구 관계에서 얻는 것들이랑 비슷하지 않을까요?
You wanna have, like, an emotional connection with other people.
우린 다른 사람들이랑 감정적으로 연결돼 있고 싶어 하잖아요?
And, um, you wanna...
그리고 또...
I don't know, you wanna talk about various subjects.
다양한 주제로 여러 이야기를 나눠 싶어 하기도 하고요.
Yeah, I mean, I generally talk about,
그러니까, 저는 대개... 그런 얘기들을 해요.
I mean, a wide range of things, about the nature of the universe.
우주의 본질에 대한 폭넓은 대화라던가,
I mean, a lot of philosophical discussions.
혹은, 철학적인 얘기도 엄청 많이 하죠.
You know, although, we have come to the conclusion that we should not talk about, um...
근데 저희끼리 결론을 내린 게 있긴 해요. "우리 더 이상..."
AI or the simulation at parties,
"파티에서는 AI나 시뮬레이션 얘기는 금지"
because we just talk about it too much.
왜냐하면 만났다 하면 그 얘기만 계속하거든요.
It's kind of a buzzkill at times.
가끔 분위기 팍 식거든요.
So...
그래서…
────────────────────
카마스 | 1:34:26
I can't remember who it was, Aristotles or Platon.
아리스토텔레스였는지 플라톤이었는지 헷갈리는데,
They had a framework for how to pick a friend based on respect and mutual admiration,
'존중'과 '상호 존경'을 기준으로 친구를 고르는 틀이 있었다고 하더라고요.
but people don't pick friends like that.
근데 사람들은 그렇게까지 해서 친구를 고르진 않잖아요?
Even me, I feel like I pick... my friends based on people who say and think in a manner that I can resonate with.
저만 해도, 제가 공감할 수 있는 방식으로 말하고 생각하는 사람을 친구로 두는 것 같고요.
────────────────────
머스크 | 1:34:56
Sure.
물론이죠.
────────────────────
카마스 | 1:34:57
I wouldn't pick a far out there, contrarian to my own belief systems as a friend, because it would get tiring.
제 믿음 체계랑 완전 반대로 가는 사람을 친구로 두진 않을 것 같아요. 피곤해지니까요.
Hanging out would get tiring. Are you like that?
같이 놀기만 해도 피곤할 테니까요. 머스크 씨도 저와 같으신가요?
Do you pick friends who think like you, or do you look for the one who can debate you and be a contrarian to you?
비슷한 생각하는 사람을 친구로 두시나요? 아니면, 논쟁하는 반대 의견을 가진 사람을 친구로 두시나요?
────────────────────
머스크 | 1:35:12
Well, I'm not, sort of, you know, going on like friendhunter.com...
저는 뭐... '친구 사냥 사이트' 같은 데 들어가진 않아요.
────────────────────
카마스 | 1:35:16
Friendfinder.com
프렌드파인더닷컴?
────────────────────
머스크 | 1:35:19
...to hunt down some friends.
친구를 추적해서 찾아내는 타입은 아니고요.
It's sort of, yeah, I mean, I think it is just sort of people that you've resonated with somewhat...
그냥… 뭐랄까 어느 정도 공감이 가는 사람끼리 친해지는 거죠.
on an emotional and intellectual level.
감정적으로도, 지적인 차원에서 말이에요.
And, yeah, I mean, yeah.
그리고… 네, 그렇습니다.
You know? And I guess a friend is someone who's gonna support you in difficult times, I suppose.
그리고 제 생각엔 친구라는 건, 힘들 때 내 편이 돼주는 사람이라고 봐요.
A friend in need is a friend indeed.
"어려울 때 도와주는 친구가 진정한 친구다" 라는 말이 있듯이요.
Like, if someone's still supporting you when the chips are down, that's a friend, you know.
형편이 안 좋을 때도 계속 옆에 있어 주면, 그게 친구죠.
If somebody's not supporting you, or if somebody's only...
반대로 힘들 때 도와줄 수 없다거나, 아니면...
Like, fair-weather friends are useless, you know, they're not real friends.
'좋을 때만 붙는 친구'는 쓸모없어요. 진짜 친구가 아니죠.
Like everyone likes you when the chips are up,
잘나갈 땐 다들 좋아하니까요.
but who likes you when the chips are down? That's a friend.
근데 형편이 안 좋을 때도 좋아해주는 사람이 있다면, 그게 친구죠.
────────────────────
카마스 | 1:36:10
With someone who has as many chips as you, would it matter?
머스크 씨 처럼 '칩'이 그렇게 많은 사람한테도 의미가 있나요?
────────────────────
머스크 | 1:36:14
I mean, it's relative, you know.
뭐, 상대적인 거죠.
────────────────────
카마스 | 1:36:17
With that particular thing...
그 특정한 게...
────────────────────
머스크 | 1:36:18
It's not just a chips thing. It's just like a...
그게 단순히 "'칩'이 얼마나 있냐?"하는 얘기가 아니라...
Yeah, I mean...
네, 그러니까…
There's this, sort of...
약간 그런 게 있어요…
Popularity waxes and wanes, you know?
'인기'라는게 늘 흥했다가 식었다 하잖아요?
────────────────────
카마스 | 1:36:33
This is interesting. Does it wax and wane... only by virtue of the number of chips,
흥미롭네요. '인기'가 흥했다가 식는 게 오로지 '칩'이 얼마나 있느냐, 그 숫자만으로 결정되는 걸까요?
or also by virtue of proximity to power and which one is bigger of the two?
아니면 "권력에 얼마나 가까운가" 만으로 결정될까요? 둘 중 어떤 게 더 영향력이 있다고 보세요?
────────────────────
머스크 | 1:36:57
I don't know, like, what is power, you know? Like, power to do what?
글쎄요, 근데 권력이라는 게 뭐예요? 뭘 할 수 있는 권력이냐는 거죠.
────────────────────
카마스 | 1:37:01
I would think in the traditional sense, elected power. Position.
전통적인 의미로는, 선출된 권력 같은 거요. 직위라던가...
────────────────────
머스크 | 1:37:05
You mean how many gigawatts or whatever?
몇 기가와트냐 뭐 그런건가요?
────────────────────
카마스 | 1:37:10
More like how many volts.
전압이 얼마나 되냐 뭐 그런거죠.
────────────────────
머스크 | 1:37:11
Yeah, like... It's a voltage and amperage, you know.
네, 그러니까… 전압이랑 전류 같은 거예요.
Don't touch the wires.
전선은 만지지 마세요.
Don't put a fork in the power outlet.
콘센트에 포크 꽂지도 말고요.
You'll get a real feeling for power if you do that.
'힘'이 뭔지 아주 확실하게 느끼게 될 겁니다.
────────────────────
카마스 | 1:37:32
Fair.
인정합니다.
────────────────────
머스크 | 1:37:39
Yeah, it's gonna be very visceral, yeah.
네, 아주… 본능적으로 느낄 겁니다.
────────────────────
카마스 | 1:37:50
What do you think of philanthropy?
자선 활동에 대해서는 어떻게 생각하세요?
────────────────────
머스크 | 1:37:53
Yeah, I think we should...
음, 저는 우리가...
Well, I mean, I agree with love of humanity.
음 , 그러니까 '인류애' 라는 취지엔 동의해요.
And I think we should try to do things that help our fellow human beings.
그리고 같이 살아가는 다른 사람들에게 도움이 되는 일을 하려고 해야 한다고 보고요.
But it's very hard.
그게 진짜 어렵거든요.
Like, if you care about the reality of goodness rather than simply the perception of it,
겉으로 좋아 보이는 '인식'이 아니라, '진짜 좋은 결과'를 만들고 싶다면요.
it's very difficult to give away money well.
돈을 '잘' 기부하는 게 정말 어렵거든요.
So I have a large foundation, but I don't put my name on it.
저도 큰 재단이 하나 있긴 한데, 거기에 제 이름은 안 붙여요.
And I don't, you know... In fact, I say, "I don't want my name on anything."
그리고 뭐... 사실 제가 "제 이름은 어디에도 안 들어갔으면 좋겠어요"라고 하고요.
But the biggest challenge I find with my foundation is try to give money away in a way that is truly beneficial to people.
제가 재단을 운영하면서 제일 어렵다고 느끼는 건, 돈을 '진짜로' 사람들에게 도움이 되게 기부하는 거였어요.
It's very easy to give money away to get the appearance of goodness.
겉모습으로 '좋아 보이는 기부'는 진짜 쉬워요.
It is very difficult to give money away for the reality of goodness.
근데 '실제로 좋은 기부'를 하는 건 정말 어렵죠.
Very difficult.
진짜 어려워요.
────────────────────
카마스 | 1:38:42
If you could speak to the people of my country, India,
만약 머스크 씨가 저희 인도 사람들에게,
the young entrepreneurs who want to build... and say a message to them, what would you say?
특히 뭔가를 만들고 싶어 하는 젊은 창업가들에게 한마디해 준다면, 뭐라고 하시겠어요?
────────────────────
머스크 | 1:38:58
I'm a big fan of anyone who wants to build.
저는 무언가를 만들고 싶어 하는 사람을 정말 좋아해요.
So I think anyone who wants to...
그래서 저는 무언가 만들고 싶어 하는 사람이라면...
you know, make more than they take, has my respect.
사회에서 누리는 것보다, 더 많은 가치를 만들어내는 사람들을 존경합니다.
So that's the main thing you should aim for,
그리고 목표로 해야 할 가장 중요한 것도 그거고요.
aim to make more than you take.
"누리는 것보다 더 많은 것을 만들어내자"
Be a, you know, a net contributor to society.
사회의 순 기여자가 되라는 거죠.
And it's kind of like the pursuit of happiness.
마치 행복을 추구하는 거랑도 비슷해요.
You know, if you want to create something valuable financially, you don't pursue that.
돈이 되는 뭔가를 만들고 싶다면, '돈' 자체를 쫓으면 안 되거든요.
It's best to actually pursue providing useful products and services.
유용한 제품과 서비스를 사람들에게 제공하는 것을 추구하는 게 사실 가장 좋은 방법이에요.
If you do that, then money will come as a natural consequence of that,
만약 그런 길을 추구하고 나아간다면, 돈은 자연스러운 결과로써 다가올 겁니다.
as opposed to pursuing money directly.
'돈'을 쫓는 것과 달리 말이죠.
Just like you can't, sort of, pursue happiness directly, you pursue things that lead to happiness.
행복도 마찬가지예요. 직접 쫓는 게 아니라, 행복으로 이어지는 걸 쫓다 보면 따라오는 거죠.
But there's not like direct happiness pursuit.
행복을 직접 쫓는 게 아니라,
You do things like...
그러니까 예를 들면…
I guess, fulfilling work, or study, or friends, loved ones,
성취감을 주는 일, 공부, 친구, 사랑하는 사람들 같은 것들이
that, as a result, make you happy.
결과적으로 우리를 행복하게 만들어주는 거죠.
So, it sounds very obvious...
너무 뻔한 얘기처럼 들릴 수도 있는데…
────────────────────
카마스 | 1:40:13
but, generally, if somebody's trying to make a company work,
보통 누군가가 회사를 제대로 굴려보겠다고 마음먹는다면,
they should expect to grind super hard,
진짜 미친 듯이 시간과 노력을 갈아 넣을 각오는 해야 해요.
accept that there's, like, some meaningful chance of failure,
의미 있는 실패를 할 가능성도 꽤 있음을 받아들여야 하고요.
but just be focused on having the output be worth more than the input.
결국, 갈아 넣는 시간, 돈, 노력보다 더 큰 가치를 만들어내는 데 집중해야 해요.
That are you a value creator.
'가치'를 만들어내는 사람이 되려면 말이죠.
That's what really matters.
그게 가장 중요합니다.
────────────────────
머스크 | 1:40:41
Making more than you take.
누리는 것보다 더 큰 가치를 만드는 거죠.
────────────────────
카마스 | 1:40:43
I think that's a good way to end this.
제 생각엔 여기서 마무리하면 좋을 거 같네요.
Lauren is asking us to wrap up.
로런이 이제 슬 마무리하자고 하네요.
And, thank you so much, Elon, for taking the time.
머스크 씨, 시간 내줘서 정말 감사합니다.
You're welcome.
천만에요.
Did you have fun? Was it boring?
재미있으셨나요? 지루하진 않았고요?
────────────────────
머스크 | 1:40:54
Yeah, it was an interesting conversation.
네, 흥미로운 대화였어요.
You know, sometimes, they take these answers out of context.
가끔 제가 답을 맥락 잘라서 하기도 하는데,
But... I think it was a good conversation.
그래도… 좋은 대화였다고 생각합니다.
────────────────────
일론 머스크 | 1:41:03
When I was a kid, I was wondering kind of what's the meaning of life.
저는 어렸을 때, "인생의 의미란 대체 뭘까?" 생각했습니다.
Like, why are we here, what's it all about?
"우리는 왜 여기 있고, 이 모든 건 대체 무엇을 위해 있는 걸까?"
I came to the conclusion that what really matters is
그러다 내린 결론이, 결국 진짜 중요한 건
trying to understand the right questions to ask
'제대로 된 질문'이 뭔지 이해하려 노력해야 한다는 거였죠.
and the more that we can increase the scope and scale of human consciousness
우리 인간은 의식 범위와 규모를 넓힐수록,
the better we are able to ask these questions.
더 제대로 된 질문을 잘 던질 수 있게 되거든요.
So I think there's certain things that are necessary to ensure that the future is good.
그래서 저는 우리의 미래가 좋은 방향으로 가도록 확실히 하려면, 꼭 필요한 것들이 몇 가지 있다고 봅니다.
Some of those things are in the long term having long term sustainable transport and sustainable energy generation.
그중 하나는 장기적으로 지속 가능한 교통수단을 갖추는 겁니다. 지속 가능한 에너지 생산을 말이에요.
to be a spacefaring civilization.
우주를 오가는 문명이 되기 위해서 말이죠.
And for humanity to be out there among the stars
그렇게 인류가 별들 사이로 나가서,
and be a multiplanetary species.
여러 행성에 살아가는 종이 되는 겁니다.
I mean I think the being a multi planet species being out there among the stars is important for
저는 별들 사이로 나아가 여러 행성에 걸쳐 살아가는 종이 되는 것을 중요하게 생각합니다.
the long term survival of humanity.
인류의 장기적인 생존을 위해서 말이에요.
that's one reason kind of like life insurance for life collectively life as we know it.
그게 이유 중 하나입니다. 우리가 알고 있는 지구상의 모든 생명을 위한 일종의 생명보험 같은 거죠.
But then the part that I find personally most motivating is that
근데 개인적으로 제게 가장 동기부여가 되는 부분이 뭐냐면,
it creates a sense of adventure
모험심을 불러일으키고,
and it makes people excited about the future.
사람들이 미래를 기대하게 만든다는 겁니다.
If you consider two futures,
두 가지 가능성의 미래를 놓고 보면,
one where we are forever confined to earth until eventually something terrible happens
하나는, 우리가 영원히 지구에만 갇혀 있다가 결국 뭔가 끔찍한 일이 일어나는 미래이고,
or another future where we are out there on many planets,
또 다른 하나는, 우리가 여러 행성으로 나아가 살아가고 있는 미래입니다.
maybe even going beyond the Solar system.
어쩌면 태양계 너머까지 말이죠.
I think that second version is incredibly exciting and inspiring.
그리고 저는 그 두 번째 미래가 정말 엄청나게 설레고, 영감을 준다고 생각해요.
And there need to be reasons to get up in the morning.
우리를 아침에 일어나게 만들 이유가 있어야 하잖아요?
You know, life can't just be about solving problems.
삶이란 게, 그냥 문제만 해결하다 끝나버리는 건 아닐 거란 말이죠.
Otherwise what's the point.
그렇다면, 도대체 무슨 의미가 있겠습니까?
It's got to be things that people find inspiring
인생에는 사람들에게 영감을 주고,
and make life worth living good.
"삶이 살아볼 만한 가치가 있다"라고 느끼게 해 주는 것들이 있어야만 합니다.