올트먼 | 00:00
This is like a crazy amount of power for one piece of technology.
이건 기술 하나가 가질 수 있는 힘치고는 진짜 말도 안 될 만큼 엄청난 거예요.
And it's happened to us so fast.
그리고 그게 너무 순식간에 온 거죠.
────────────────────
아브람 | 00:04
You just launched GPT-5.
며칠 전에 GPT-5를 출시하셨잖아요?
────────────────────
올트먼 | 00:06
A kid born today will never be smarter than AI.
지금 태어나는 아이들은 평생 AI보다 똑똑해질 수 없을 겁니다.
────────────────────
아브람 | 00:08
How do we figure out what's real and what's not real?
그럼, 뭐가 진짜이고 가짜인지 어떻게 알수있죠?
────────────────────
올트먼 | 00:10
We haven't put a sexbot avatar in ChatGPT yet.
아직 챗GPT에 야스봇 아바타는 안 넣었어요.
────────────────────
아브람 | 00:14
Superintelligence. What does that actually mean?
초지능이란 게 정확히 뭔가요?
────────────────────
올트먼 | 00:16
This thing is remarkable.
정말 놀랄 만한 겁니다.
────────────────────
아브람 | 00:20
I'm about to interview Sam Altman, the CEO of OpenAI.
저는 오늘 오픈AI의 CEO, 샘 올트먼과 인터뷰하려 해요.
OpenAI.
오픈AI x1
OpenAI.
오픈AI x2
Reshaping industries.
산업의 흐름을 통째로 바꾸고 있습니다.
Dude's a straight up tech lord, let's be honest.
이 사람이 진짜 기술계의 황제죠, 솔직히 말해서요.
Right now, they're trying to build a superintelligence
지금, 그들은 초지능을 만들려 하고 있습니다.
that could far exceed humans in almost every field.
거의 모든 분야에서 인간을 훨씬 뛰어넘을 수 있는 존재를 말이죠.
And they've just released their most powerful model yet.
그리고 오픈AI는 지금까지의 모델 중에 가장 강력한 모델을 공개했습니다.
Just a couple years ago, that would have sounded like science fiction.
불과 몇 년 전만 해도, 이런 얘기는 공상과학처럼 들렸을 테지만,
Not anymore.
이제는 더 이상 아니죠.
In fact, they're not alone.
게다가, 지금은 오픈AI만 있는 게 아닙니다.
We're in the middle of the highest stakes global race any of us have ever seen.
우린 지금 인류가 겪어본 것 중 가장 판이 큰 세계적인 경쟁 한가운데에 서 있습니다.
Hundreds of billions of dollars and an unbelievable amount of human work.
수천억 달러와 믿기 힘든 규모의 인적 노력이 투자되고 있으니까요.
This is a profound moment.
지금은 정말 중대한 순간입니다.
Most people never live through a technological shift like this,
대부분의 사람이 이런 거대한 기술 변화를 겪어본 적이 없어요.
and it's happening all around you and me right now.
하지만 그런 거대한 변화가 지금, 우리가 살아가는 세상에서 일어나고 있는 겁니다.
So in this episode, I want to try to time travel with Sam Altman
그래서 이번 대화에선 샘 올트먼과 함께 시간 여행을 해보려고 합니다.
into the future that he's trying to build to see what it looks like.
그가 만들고자 하는 미래가 어떤 모습일지 보기 위해서 말이죠.
So that you and I can really understand what's coming.
그래야 우리가 모두 앞으로 다가올 미래에 대해 제대로 이해할 수 있을 테니까요.
Welcome to Huge Conversations.
'Huge Conversations'에 오신 걸 환영합니다.
Great to meet you. Thanks for doing this.
만나 뵙게 돼서 반가워요. 이 자리에 응해주셔서 감사합니다.
────────────────────
올트먼 | 01:19
Absolutely.
제가 감사하죠.
────────────────────
아브람 | 01:20
So before we dive in, I'd love to tell you my goal here.
본격적으로 들어가기 전에, 제가 오늘 대화에서 어떤 목표를 갖고 있는지 말씀드리고 싶어요.
────────────────────
올트먼 | 01:23
Okay.
좋습니다.
────────────────────
아브람 | 01:24
I'm not going to ask you about valuation or AI talent wars
저는 오늘 올트먼 씨에게 기업 가치나 AI 인재 전쟁 같은 건 묻지 않을 겁니다.
or fundraising or anything like that.
혹은 자금 조달 같은 이야기도 말이죠.
I think that's all very well covered elsewhere.
그런 이야기들은 이미 다른 데서 많이 다뤄졌으니까요.
────────────────────
올트먼 | 01:31
It does seem like it.
네, 확실히 그런 것 같네요.
────────────────────
아브람 | 01:32
Our big goal on this show is to cover how we can use science and tech to make the future better.
저희의 핵심 목표는 과학과 기술을 어떻게 활용해야 더 나은 미래를 만들 수 있는지 이야기하는 거예요.
And the reason that we do all of that is because we really believe that
그런 이야기를 하는 이유는 저희가 진심으로 믿기 때문이고요.
if people see those better futures, they can then help build them.
사람들이 더 나은 미래를 그려볼 수 있다면, 그런 미래를 만드는 데 함께할 수 있다고 말이죠
So my goal here is to try my best to time travel with you
그래서 제 목표는 오늘 올트먼 씨와 함께 최대한 미래로 '시간 여행'을 해보는 거예요.
into different moments in the future that you're trying to build and see what it looks like.
올트먼 씨가 만들고자 하는 미래의 여러 순간으로 가서 그게 어떤 모습일지 보는 거죠.
────────────────────
올트먼 | 01:56
Fantastic.
멋지네요.
────────────────────
아브람 | 01:57
Awesome.
좋습니다.
Starting with what you just announced.
그럼, 얼마 전에 발표한 내용부터 시작할까요?
You recently said, surprisingly recently,
올트먼 씨는 최근에, 정말 최근에 이렇게 말씀하셨죠.
that GPT-4 was the dumbest model any of us will ever have to use again.
GPT-4가 앞으로 우리가 다시 써야 할 일은 절대 없을, 가장 멍청한 모델이라고요.
But GPT-4 can already perform better than 90% of humans
근데 GPT-4는 이미 특정 시험에서 인간의 90%보다 더 잘하잖아요?
at the SAT and the LSAT and the GRE,
예를 들면, 미국 대학 입학 자격, 로스쿨 입학, 대학원 입학 시험들에서뿐만 아니라,
and it can pass coding exams and sommelier exams and medical licensing.
코딩 시험, 소믈리에 시험, 의사 면허 시험까지 통과할 정도로 말이에요.
And now you just launched GPT-5.
그리고 이제 그보다 높은 버전인 GPT-5를 출시하신 거고요.
What can GPT-5 do that GPT-4 can't?
GPT-5는 GPT-4가 못하는, 어떤 것까지 할 수 있나요?
────────────────────
올트먼 | 02:26
First of all, one important takeaway is you can have an AI system that can do all those amazing things you just said,
우선, 중요한 핵심 요점은, 방금 말씀하신 그런 놀라운 일들을 해낼 수 있는 AI 시스템이 지금 가능하다는 겁니다.
and it clearly does not replicate a lot of what humans are good at doing,
그렇다고 해서, 인간이 잘하는 많은 것들을 그대로 재현할 수 있는 건 아니죠.
which I think says something about the value of SAT tests or whatever else.
그게 미국 대학 입학시험같은 테스트의 가치에 대해 시사하는 바가 있다고 생각하고요.
GPT-5
만약 우리가 GPT-4를 처음 출시하던 날로 돌아가서 이 대화를 나눴다면요,
GPT-5
만약 우리가 GPT-4를 처음 출시하던 날로 돌아가서 이 대화를 나눴다면요,
But I think had you gone back to, if we were having this conversation the day of GPT-4 launch
만약 우리가 GPT-4를 처음 출시하던 날로 돌아가서 이 대화를 나눴다면요,
and we told you how GPT-4 did those things, you were like,
GPT-4가 어떻게 그런 것들을 해냈는지 말했다면, 아마 이런 반응이었을 거예요.
oh man, this is going to have huge impacts and some negative impacts on
"와, 이건 우리에게 엄청난 영향을 주겠는데요? 부정적인 영향도 포함해서 말이죠"
what it means for a bunch of jobs or you know what people are going to do
특히 수많은 일자리나, 사람들이 앞으로 하게 될 일들에 대해서요.
and you know this is bunch of positive impacts that you might have predicted that haven't yet come true.
그리고 그때는 수많은 긍정적인 영향이 있을 거라고 예상했지만, 아직 현실이 되지 않은 것도 많고요.
And so there's something about the way that these models are good
그래서 이 AI 모델들이 뛰어난 방식에는 분명 뭔가 특징이 있지만,
that does not capture a lot of other things that we need people to do or care about people doing.
사람이 해야 하거나, 사람만이 할 수 있다고 여기는 많은 것들을 다 포착하진 못합니다.
And I suspect that same thing is going to happen again with GPT-5.
그리고 그런 현상들이 GPT-5에서도 또 비슷하게 일어날 거라고 추측하고 있습니다.
People are going to be blown away by what it does.
사람들은 GPT-5가 해내는 것들을 보고 정말 깜짝 놀랄 겁니다.
It's really good at a lot of things.
진짜 많은 것들을 잘하거든요.
And then they will find that they want it to do even more
그래서 사람들이 "이것도 해줬으면" 하는 게 더 늘어날 거고,
people will use it for all sorts of incredible things
사람들은 이걸로 정말 놀라운 일들을 별의별 방식으로 다 해볼 테고,
it will transform a lot of knowledge work
다양한 지식 노동의 방식을 완전히 바꿔놓을 겁니다.
a lot of the way we learn a lot of the way we create
그리고 우리가 배우는 방식, 창작하는 방식도 크게 변하겠죠.
but we people society will co-evolve with it to expect more with you know better tools
그렇게 인간 사회도 GPT와 함께 진화하면서 더 나은 도구로, 더 많은 걸 기대하게 될 거예요.
So yeah, I think this model is quite remarkable in many ways, quite limited in others.
그래서 저는 GPT-5 모델이 여러 면에서 꽤 놀랍지만, 특정 다른 면에서는 여전히 꽤 한계가 있다고 생각합니다.
But the fact that for three-minute, five-minute, one-hour tasks
근데 3분, 5분, 1시간 정도 걸리는 일들에 대해서는요,
that an expert in a field could maybe do or maybe struggle with,
그러니까 해당 분야의 전문가가 할 수 있거나, 아니면 애를 먹을 만한 그런 일들을
the fact that you have in your pocket one piece of software that can do all of these things is really amazing.
전부 해낼 수 있는 소프트웨어를 주머니 속에 가질 수 있다는 게 진짜 놀라운 일이죠.
GPT-5
전부 해낼 수 있는 소프트웨어를 주머니 속에 가질 수 있다는 게 진짜 놀라운 일이죠.
I think this is like unprecedented at any point in human history that a technology has improved this much this fast.
이렇게 짧은 시간에 이렇게 빨리 발전한 기술은 인류 역사상 전례가 없다고 생각해요.
And the fact that we have this tool now,
그리고 우리가 지금 그런 도구를 가지고 있는 거고,
you know, we're like living through it and we're kind of adjusting step by step.
그 변화 속에서 살아가며, 한 걸음씩 적응하고 있는 거죠.
But if we could go back in time five or 10 years and say this thing was coming, we would be like, probably not.
그리고 만약 5년, 10년 전으로 돌아가서 이런 미래가 올 거라고 말했다면, 다들 "그럴 리가" 했을 거고요.
────────────────────
아브람 | 04:29
Let's assume that people haven't seen the headlines.
그럼, 사람들이 아직 GPT-5가 출시 됐다는 뉴스를 아직 못 봤다고 가정해 봅시다.
What are the top line specific things that you're excited about?
이번 GPT-5에서 흥분되는 구체적인 핵심 기능은 뭔가요?
And also the things that you seem to be caveating, the things that maybe you won't expect it to do.
그리고 약간 주의점을 달아 놓으시는 것 같던데, 아마 기대하지 않아야 할 부분엔 뭐가 있나요?
────────────────────
올트먼 | 04:43
The thing that I am most excited about is this is a model for the first time
제가 제일 많이 기대되는 건, 이번 모델이 처음으로
where I feel like I can ask kind of any hard scientific or technical question
어려운 과학적, 기술적인 질문들을 던져볼 수 있을 것 같다고 느끼는, 그런 모델이에요.
and get a pretty good answer.
그리고 꽤 괜찮은 답을 받을 수 있죠.
And I'll give a fun example actually,
재밌는 예를 하나 들어볼게요.
when I was in junior high, or maybe it was ninth grade,
제가 중학교 때, 아마 9학년이었을 거예요.
I got a TI-83, this old graphing calculator.
TI-83이라는 옛날 그래픽 계산기를 하나 샀었죠.
And I spent so long making this game called Snake.
그리고 '스네이크'라는 게임을 만들려고 엄청 오래 붙잡고 있었어요.
It was very popular game with kids in my school.
그 게임이 학교 애들 사이에서 완전 인기였거든요.
And I was like, pro and it was dumb, but it was like programming on TI-83 was extremely painful and took a long time.
저는 제가 완전 고수라고 생각했는데, 사실 별것 아니었죠. TI-83에서 프로그래밍하는 건 정말 고통스럽고 시간이 오래 걸렸거든요.
It was really hard to like debug and whatever.
오류를 찾아내고 제거하는 것도 그렇고, 여러모로 정말 힘들었거든요.
And on a whim with an early copy of GPT-5,
그게 갑자기 생각나서, 그냥 충동적으로 GPT-5 초기 버전을 받았을 때,
I was like, I wonder if it can make a TI-83 style Game of Snake.
혹시 "GPT-5로 TI-83 스타일의 스네이크 게임을 만들 수 있을까?" 싶어서 시켜봤죠.
And of course it did that perfectly in like seven seconds.
그랬더니 당연하다는 듯이, 7초 만에 완벽하게 만들어 주더라고요.
And then I was like, okay, am I supposed to be, would my like 11 year old self
그러고 나서 생각했죠. "만약 지금의 내가 11살 때의 나라면 어떻게 느꼈을까?"
think this was cool or like, you know, miss something from the process?
"멋지다고 느꼈을까? 아니면 그 과정에서 얻게 될 어떤 걸 잃었다고 느끼지 않았을까?"
And I had like three seconds of wondering like, oh, is this good or bad?
그렇게 딱 3초 정도 좋은 건지 나쁜 건지 궁금해하다가,
And then I immediately said,
그러다 바로 이런 생각이 들더라고요?
Actually, now I'm missing this game.
"아, 근데 그때 했던 게임이 좀 그립네?"
I have this idea for a crazy new feature.
그러다 그 게임에 추가해 볼만한 기발한 아이디어가 하나 떠올랐고,
Let me type it in. It implements it.
그래서 바로 GPT-5에 요청하니까 바로 구현해 주더라고요.
And it just... The game live updates.
게임이 실시간으로 업데이트되는 거죠.
And I'm like, actually, I'd like it to look this way.
"아, 이건 이렇게 하면 더 좋겠다"
Actually, I'd like to do this thing.
"아, 아닌가? 이런 건 어떨까?"
And I had this like... This very like kind of...
그렇게 하다 보니까… 뭐랄까...
You have this experience that reminded me of being like 11 and programming again, where I was just like,
마치 제가 다시 11살 때 프로그래밍하던 시절을 떠올리게 하는 거 있죠?
I don't know, I want to try this. Now I have this idea.
"잘 모르겠네... 이건 어떨까? 이런 아이디어는?"
But I could do it so fast and I could like express ideas and try things and play with things in such real time.
그런 생각들을 GPT-5 덕에 정말 순식간에 아이디어를 표현하고, 시도하고, 실험하는 걸 완전 실시간으로 할 수 있었어요.
I was like, oh man, you know,
처음에는 잠깐, 그럼...
I was worried for a second about kids like missing the struggle of learning to program in this sort of stone age way.
요즘 애들은 '석기 시대' 방식으로 프로그래밍을 배우며 고생하는 경험을 놓치게 되는 건 아닐지 걱정했는데,
And now I'm just thrilled for them because the way that people will be able to create with these new tools,
이젠 오히려 너무 부럽고 기대되더라고요. 이런 도구로 창작할 수 있는 시대에 산다는 게 말이죠.
the speed with which you can sort of bring ideas to life, you know, in that's pretty amazing.
아이디어를 현실로 만드는 속도가 진짜 말도 안 되게 빨라졌으니까요.
So this idea that GPT-5 can just not only answer all these hard questions for you,
그러니까 GPT-5는 단순히 어려운 질문에 답해줄 뿐 아니라,
but really create like, on-demand, almost instantaneous software,
정말로 필요할 때마다, 거의 즉시 실행 가능한 소프트웨어를 만들어 낼 수 있다는 거예요.
I think that's going to be one of the defining elements of the GPT-5 era in a way that did not exist with GPT-4.
그런 게 GPT-4에는 없었던, GPT-5 시대를 정의하는 핵심 요소 중 하나가 될 거라고 생각합니다.
────────────────────
아브람 | 06:51
As you're talking about that, I find myself thinking about a concept in weightlifting of Time Under Tension ( TUT ).
그 얘기를 들으니까, 저는 웨이트 트레이닝에서 쓰는 '타임 언더 텐션'이라는 개념이 떠올랐는데요,
And for those who don't know,
혹시 잘 모르는 분들을 위해 설명하자면,
you can squat 100 pounds in three seconds or you can squat 100 pounds in 30.
약 45키로의 스쿼트를 3초 만에 할 수도 있고, 30초에 걸쳐 할 수도 있잖아요?
You gain a lot more by squatting it in 30.
그렇게 긴장 시간을 늘려서 스쿼트를 하면 훨씬 더 많은 걸 얻는다는 개념이죠.
And when I think about our creative process and when I've felt most like I've done my best work,
그리고 우리의 창작 과정을 떠올려 보면, 제가 가장… 최고의 작업을 해냈다고 느꼈을 때는,
it has required an enormous amount of cognitive Time Under Tension ( TUT ).
엄청난 양의 인지적 '타임 언더 텐션'이 필요했었던 때였거든요.
And I think that cognitive Time Under Tension ( TUT ) is so important.
그래서 저는 그 인지적 '타임 언더 텐션'이 정말 중요하다고 생각하거든요?
And it's ironic almost because these tools have taken enormous cognitive Time Under Tension ( TUT ) to develop.
근데 아이러니하게도, 이런 AI 도구들을 개발하는 데도 엄청난 그 인지적 '타임 언더 텐션'이 필요 했을 텐데,
But in some ways, I do think people might say,
그런데 어떤 면에서는, 사람들이 이렇게 느낄 수도 있다는 생각이 들어요.
And people are using them as a escape hatch for thinking in some ways, maybe.
어쩌면 사람들이 그런 AI 도구들을 '생각하기'에서 벗어나기 위한 탈출구처럼 쓰고 있는 걸지도 모른다고요.
Now, you might say,
물론 이렇게 말씀하실 수도 있겠죠.
yeah, but we did that with the calculator and we just moved on to harder math problems.
"근데 계산기가 나왔을 때도 그랬던 거고, 그 덕에 더 어려운 수학 문제로 넘어가게 됐잖아?"
Do you feel like there's something different happening here?
그렇지만 이 AI 도구들에 대해서는 뭔가 다른 점이 있다고 보시나요?
How do you think about this?
그 부분에 대해서는 어떻게 생각하세요?
────────────────────
올트먼 | 07:48
It's different. I mean, there are some people who are clearly using ChatGPT not to think.
이번엔 다르다고 봐요. 그러니까, 분명히 챗GPT를 '생각하지 않기'위해 쓰는 사람들도 있고,
And there are some people who are using it to think more than they ever have before.
오히려 예전보다 훨씬 더 깊이 생각하려고 쓰는 사람들도 있죠.
I am hopeful that we will be able to build the tool
저는 오픈AI가 GPT를 만들 수 있기를 바라요.
in a way that encourages more people to stretch their brain with it a little more and be able to do more.
더 많은 사람들이 GPT로 머리를 조금 더 쓰고, 더 많은 걸 해낼 수 있도록 격려하는 방식으로 말이죠.
And I think that like, you know, society is a competitive place.
그리고 아시다시피, 이 사회는 경쟁이 치열한 세상이잖아요?
Like if you give people new tools,
그러니까, 사람들에게 새로운 도구가 생기면,
in theory, maybe people just work less, but in practice, it seems like people work ever harder and the expectations of people just go up.
이론적으로는 사람들의 일이 줄어들 수도 있겠지만, 실제로는 사람들이 더 열심히 일하고 사람들에게 거는 기대치도 계속 올라가는 듯해요.
So my, my guess is that like other tools,
그래서 제 생각에는, GPT도 다른 도구들과 마찬가지로
Some people, like other pieces of technology, some people will do more and some people will do less.
다른 기술들처럼, 어떤 사람들은 더 많은 걸 해내고, 어떤 사람들은 덜 할 겁니다.
But certainly for the people who want to use ChatGPT to increase their cognitive Time Under Tension, they are really able to.
하지만 분명히, 챗GPT로 인지적 '타임 언더 텐션'을 늘리고 싶은 사람들은 당연히 그럴 수 있을 겁니다.
And it is, I take a lot of inspiration from what like the top 5% of most engaged users do with ChatGPT.
그리고 저는 챗GPT를 가장 열성적으로 쓰는 상위 5% 사용자들이 하는 일을 보면서 많은 영감을 받아요.
Like it's really amazing how much people are learning and doing and, you know, outputting.
그들이 GPT를 통해 뭔가를 배우고, 해내고, 결과물을 내는 수준은 진짜 놀라울 정도거든요.
────────────────────
아브람 | 08:52
So I've only had GPT-5 for a couple hours, so I've been playing with it.
저는 GPT-5를 몇 시간밖에 안 써봐서, 아직은 계속 이것저것 해보는 중이거든요.
────────────────────
올트먼 | 08:57
What do you think so far?
지금까지 써본 느낌이 어떠세요?
────────────────────
아브람 | 08:58
I'm just learning how to interact with it.
아직은 어떻게 대화를 주고받으며 다뤄야 할지 배우는 중이에요.
I mean, part of the interesting thing is I feel like I just caught up on how to use GPT-4
재밌는 건, 제가 이제 막 GPT-4 쓰는 법을 따라잡았다 싶었는데,
and now I'm trying to learn how to use GPT-5.
이제는 GPT-5 쓰는 법을 배우려고 하고 있다는 거예요.
I'm curious what the specific tasks that you found most interesting are,
그래서 궁금한 게, 올트먼 씨는 이 GPT-5를 써보면서 제일 흥미로웠던 구체적인 작업은 뭐가 있었나요?
because I imagine you've been using it for a while now.
아마 올트먼 씨는 이미 한동안 꽤 써보셨을 것 같아서요.
────────────────────
올트먼 | 09:16
I have been most impressed by the coding tasks.
지금까지 써본 결과 특히 코딩 작업이 제일 인상 깊더라고요.
I mean, there's a lot of other things it is really good at,
물론, 다른 것도 엄청나게 잘하는 게 많지만,
but this idea of the AI can write software for anything.
저는 이 AI가 '뭐든지' 소프트웨어로 만들 수 있다는 점이 놀라웠어요.
And that means that you can express ideas in new ways that the AI can do very advanced things.
그 말은, AI가 아주 고급스러운 작업을 해낼 수 있는 새로운 방식으로 우리가 아이디어를 표현할 수 있다는 거거든요.
It can do, you know, it can like,
그러니까 제 말은,
In some sense, you could ask GPT-4 anything,
GPT-4 때도 어느 정도는 물어볼 수는 있었지만,
but because GPT-5 is so good at programming, it feels like it can do anything.
GPT-5는 프로그래밍 능력이 워낙 뛰어나서 진짜 '뭐든 할 수 있다'라는 느낌이거든요.
Of course, it can't do things in the physical world,
물론 물리적인 세계에선 뭔가를 하진 못하지만,
but it can get a computer to do very complex things.
컴퓨터로 아주 복잡한 작업을 하게 만들 수 있다는 거죠.
And software is this super powerful you know, way to control some stuff and actually do some things.
그리고 소프트웨어는, 뭔가를 제어하고 실제로 해내는 데 있어서 정말 강력한 수단이잖아요?
So that, for me, has been the most striking.
그래서 저한텐 그런 게 GPT-5에 와서 가장 눈에 띄는 부분이었어요.
It's much better at writing.
글쓰기 능력도 훨씬 좋아졌고요.
So this is like...
그러니까 이게…
There's this whole thing of AI slop, like AI writes in this kind of quite annoying way.
AI가 좀 짜증 나는 방식으로 글을 쓰는, 이른바 'AI 슬롭'이라는 문제가 있거든요.
────────────────────
아브람 | 10:10
M-dashes.
'ㅡ' 남발 같은.
────────────────────
올트먼 | 10:11
We still have the M-dashes in GPT-5.
GPT-5에도 여전히 'ㅡ' 문제가 남아있긴 해요.
A lot of people like the M-dashes.
'ㅡ' 좋아하는 사람도 많거든요.
But the writing quality of GPT-5 has gotten much better.
GPT-5의 글쓰기 품질은 훨씬 좋아졌어요.
We still have a long way to go. We want to improve it more.
물론 아직 갈 길이 멀고, 더 개선하고 싶지만,
But like, a thing we've heard a lot from people inside of OpenAI is that,
오픈AI 내부 사람들에게서 많이 들은 얘기가 있는데요,
man, they started using GPT-5.
다들 GPT-5를 써보고 나면
They knew it was better on all the metrics, but there's this like,
모든 지표에서 더 낫다는 건 알고 있었지만, 뭔가 이런 게 있다는 겁니다.
nuance quality they can't quite articulate, but then when they have to go back to GPT-4 to test something, it feels terrible.
정확히 설명은 못 하겠지만 미묘한 품질 차이가 있고, 뭔가를 테스트하느라 GPT-4로 돌아가면 체감이 너무 안 좋다는 거죠.
And I don't know exactly what the cause of that is, but I suspect part of it is the writing feels so much more natural and better.
그게 정확히 왜 그런지는 모르겠지만, 그 덕에 글이 훨씬 더 자연스럽고 좋게 느껴지는 이유일 거라고 생각해요.
────────────────────
아브람 | 10:46
I, in preparation for this interview,
제가 이번 인터뷰를 준비하면서,
reached out to a couple other leaders in AI and technology and gathered a couple questions for you.
AI랑 기술 업계의 몇몇 리더들에게 연락해서 올트먼 씨에게 드릴 질문을 몇 개 받아왔거든요.
────────────────────
올트먼 | 10:53
Okay.
좋습니다.
────────────────────
아브람 | 10:54
So this next question is from Stripe CEO Patrick Collison.
다음 질문은 스트라이프 CEO 패트릭 콜리슨이 보내 줬는데요,
────────────────────
올트먼 | 10:58
This will be a good one, I'm sure.
분명 좋은 질문일 거 같네요.
────────────────────
아브람 | 10:59
I'm going to try to read this verbatim.
원문 그대로 한 번 읽어볼게요.
It's about the next stage.
다음 단계에 관한 질문인데요,
What comes after GPT-5?
"GPT-5 다음엔 뭐가 나올까?"에 대해서 말이죠.
In which year do you think a large language model ( LLM ) will make a significant scientific discovery?
대규모 언어 모델이 의미 있는 과학적 발견을 하게 되는 시점이 몇 년도쯤일 거라고 보시나요?
And what's missing such that it hasn't happened yet?
그리고 아직 그런 발견이 일어나지 않은 이유는 어떤 부분이 부족해서 그런 건가요?
He caveated here that we should leave math and special case models like AlphaFold aside.
참고로 수학이나 알파폴드 같은 특수 목적 모델은 제외하자고 덧붙였어요.
He's specifically asking about fully general purpose models like the GPT series.
특히 GPT 시리즈처럼 완전 범용 모델만을 두고 묻고 있는 거죠.
────────────────────
올트먼 | 11:22
I would say most people will agree that happens at some point over the next two years.
앞으로 2년 안 어느 시점에 '의미 있는' 과학적 발견이 일어날 거라고 대부분 동의한다고 생각해요.
But the definition of significant matters a lot.
다만 여기서 '의미 있는'의 정의가 너무 중요한데요,
And so some people's significant might happen.
왜냐하면 사람마다 '의미 있는'의 기준이 달라서 그 시점이 달라질 수 있으니까요.
you know, in early 25 some people might maybe not until late 2026
그러니까 그 기준에 따라 2025년 초라고 보는 사람도 있고, 또 어떤 사람은 2026년 말쯤이라고 보는 사람도 있는 거죠.
sorry early 2026 maybe some people not until late 2027
아, 정정할게요. 2026년 초, 아니면 2027년 말이라고요.
but i would i would bet that by late 27 most people agree that there has been an ai driven significant new discovery
하지만 저는 2027년 말쯤이면 'AI가 주도한 의미 있는 새로운 발견이 있을 것이다'라는 데 대부분이 동의할 거라고 장담합니다.
and the thing that i think is missing is just the kind of cognitive power of these models
그리고 제가 아직 부족하다고 보는 건, 대규모 언어 모델에 필요한 인지적 능력이에요.
a framework that one of the researchers said to me that i really liked is
한 연구자가 제게 정말 마음에 드는 '생각의 틀'을 제시해 줬는데요,
You know, a year ago,
있잖아요, 불과 1년 전만 해도
we could do well on like a high school,
GPT는 고등학교 수준에서 꽤 잘하는 정도였는데요,
like a basic high school math competition.
기초적인 고교 수학 경시대회 같은 데서 말이죠.
Problems that might take a professional mathematician seconds to a few minutes.
전문 수학자라면 몇 초에서 몇 분이면 되는 문제들이요.
We very recently got an IMO gold medal.
그런 GPT가 최근에는 국제 수학 올림피아드에서 금메달 수준의 점수를 얻었다는 겁니다.
That is a crazy difficult like.
그게 진짜 말도 안 되게 어려운 문제들을 풀어야 하는 대회거든요.
────────────────────
아브람 | 12:12
Could you explain what that means?
그게 정확히 뭘 의미하는지 설명해 주실 수 있을까요?
────────────────────
올트먼 | 12:14
That's kind of like the hardest competition math test.
간단히 말해, 세계에서 가장 어려운 수학 경시대회라고 보시면 돼요.
This is something that like the very, very top slice of the world.
전 세계에서도 정말 최정상의 극소수만 풀 수 있는 수준이거든요.
Many, many professional mathematicians wouldn't solve a single problem.
정말 많은 전문 수학자도 그 대회에서의 문제 하나도 못 풀 거예요.
And we scored at the top level.
그런데 GPT-5가 최상위 레벨 점수를 받았죠.
Now, there are some humans that got an even higher score in the gold medal range.
물론 금메달 점수권 구간에서 더 높은 점수를 받은 사람들도 있지만,
But we like, this is a crazy accomplishment. And these, each of these problems,
금메달권 점수에 들어간 것만 해도 말도 안 되는 업적이라는 거죠. 그리고 거기서의 각 문제는,
it's like six problems over nine hours.
대략 9시간 동안 6문제를 푸는 건데,
So hour and a half per problem for a great mathematician.
즉, 뛰어난 수학자에게도 문제 하나당 한 시간 반이 걸린다는 거예요.
So we've gone from a few seconds to a few minutes to an hour and a half.
그러니까, 인간의 '풀이 시간'으로 보면, GPT가 이제 몇 초 → 몇 분 → 한 시간 반까지 올라왔다는 뜻입니다.
Maybe to prove a significant new mathematical theorem is like a thousand hours of work for a top person in the world.
그리고 아마 세계 최정상급 사람이 '의미 있는' 새로운 수학 정리를 증명하려면 대략 1,000시간은 들 텐데,
So we've got to go from you know, another significant gain.
거기까지 가려면 또 한 번 의미 있는 도약이 필요하겠죠.
But if you look at our trajectory, you can say like, okay, we're getting to that.
그런데 지금 우리의 상승 궤도를 보면, "좋아, 점점 더 가까워지고 있어"라고 말할 수 있는 거고,
We have a path to get to that time horizon.
그 시점까지 도달할 경로가 있다는 겁니다.
We just need to keep scaling the models.
우리는 모델을 계속 확장해 나가기만 하면 돼요.
────────────────────
아브람 | 13:02
The long-term future that you've described is superintelligence.
올트먼 씨가 말씀하신 장기적 미래는 '초지능'이잖아요?
What does that actually mean?
그게 정확히 무슨 뜻인가요?
And how will we know when we've hit it?
그리고 우리가 그 단계에 도달했는지는 어떻게 알 수 있죠?
────────────────────
올트먼 | 13:11
If we had a system...
만약 우리가 그런 시스템을 갖고 있었다면…
that could do better research better AI research than say the whole OpenAI research team
이를테면, AI 연구를 오픈AI 전체 연구팀보다도 더 잘 해낼 수 있는 그런 시스템 말이죠.
like, if we were willing if we said okay the best way we can use our GPUs
저희가 "그래, 우리 GPU를 가장 잘 쓰는 방법은..."
is to let this AI decide what experiments we should run smarter than like the whole brain trust of OpenAI
"어떤 실험을 진행할지 오픈AI의 핵심 인력 전체보다도 더 똑똑한 AI에게 스스로 결정하도록 맡기는 거다"
and if that same to make a personal example if that same system could do a better job running OpenAI than I could
그리고 개인적 예를 들어서, 그 AI가 저보다도 오픈AI를 더 잘 운영할 수 있다고 한다면,
so you have something that's like you know better than the best researchers
그리고 최고의 연구자들보다도 뛰어나고,
better than me at this better than other people at their jobs that would feel like superintelligence to me.
이 일에서 저보다, 다른 사람들보다도 잘한다면, 그게 제게 '초지능'을 구분할 수 있는 기준일 겁니다.
────────────────────
아브람 | 13:42
That is a sentence that would have sounded like science fiction just a couple years ago.
불과 몇 년 전만 해도 그런 말이 공상 과학처럼 들렸잖아요?
────────────────────
올트먼 | 13:44
It still kind of does, but you can see it through the fog.
지금도 약간은 그렇긴 하지만, 이젠 안개 너머로 윤곽이 보인다고 볼 수 있죠.
────────────────────
아브람 | 13:48
Yes.
맞습니다.
And so one of the steps, it sounds like you're saying, on that path
그러니까, 올트먼 씨의 말씀이 초지능으로 나아가는 길에 거쳐야 할 단계 중의 하나가
is this moment of scientific discovery, of asking better questions,
바로 AI가 특별한 과학적 발견을 끌어내는 순간이 온다거나 혹은 우리보다 더 나은 질문을 던지는,
of grappling with things in a way that expert-level humans do to come up with new discoveries.
즉, 전문가 수준의 사람들처럼 사안을 붙잡고 씨름해 새로운 발견을 이끌어내는 순간이라는 말씀이잖아요?
One of the things that keeps knocking around in my head is
요즘 제 머릿속을 계속 맴도는 생각 중에 하나가,
if we were in 1899, say,
이를테면 우리가 1899년에 있었다고 가정해서,
and we were able to give it all of physics up until that point
그 시점까지의 모든 물리학 지식을 AI에 다 넣은 뒤에
and play it out a little bit, nothing further than that,
그 AI를 조금만 돌려보는 겁니다. 딱 거기까지의 정보만 주고 말이죠.
at what point would one of these systems come up with general relativity?
그렇다면 그 AI가 어느 시점에 일반상대성이론을 생각해서 내놓게 됐을까요?
────────────────────
올트먼 | 14:17
Interesting question is like,
흥미로운 질문은,
if we think about that forward, if we think of where we are now,
그걸 조금 더 내다보고 지금 우리가 있는 시점으로 가져와서 생각해 보는 겁니다.
if we never got another piece of physics data,
지금부터 어떠한 물리학 데이터도 얻지 못하는 상태에서
do we expect that a really good superintelligence could just think super hard about our existing data
정말 뛰어난 초지능이 있다면, 현재 가진 데이터만으로 아주 깊이 생각해서 대단한 발견을 해낼 거라고 기대할 수 있을까요?
and maybe, say, solve high-energy physics with no new particle accelerator?
이를테면 새로운 입자가속기 없이도 고에너지 물리학 문제들을 풀어낼 수 있을까요?
Or does it need to build a new one and design new experiments?
아니면 새로운 장치를 만들고, 새로운 실험을 설계해야만 할까요?
Obviously, we don't know the answer to that.
물론 그 답은 아직 알 수 없습니다.
Different people have different speculation.
사람마다의 추측도 제각각이기도 하고요.
But I suspect we will find that for a lot of science,
하지만 제 생각엔 많은 과학 분야에서 우리가 이론 결론에 이르게 될 거라고 추측합니다.
it's not enough to just think harder about the data we have,
지금 우리가 가진 데이터를 더 곱씹는 것만으로는 부족하고,
but we will need to build new instruments, conduct new experiments, and that will take some time.
새로운 장비를 만들고, 새로운 실험을 수행해야겠죠. 그리고 그러기 위해서는 시간이 걸릴 겁니다.
That is the real world is slow and messy and you know, whatever.
현실 세계는 느리고 복잡한, 뭐 그런 거잖아요?
So I'm sure we could make some more progress just by thinking harder about the current scientific data we have in the world.
그래서 저는 지금 세상에 있는 과학 데이터를 더 깊이 파고들기만 해도, 어느 정도 진전을 이뤄 낼 수 있다고 저는 확신하지만,
But my guess is to make the big progress,
더 큰 진전을 이루기 위해서는
we'll also need to build new machines and run new experiments.
새 장치들을 만들고, 새 실험을 돌리는 과정이 함께 필요하다고 봅니다.
And there will be some slowdown built into that.
그리고 그 과정에는 필연적으로 속도의 지연이 내재되어 따를 테고요.
────────────────────
아브람 | 15:18
Another way of thinking about this is AI systems now are just incredibly good at answering almost any question.
이걸 다르게 생각해 보면, 지금의 AI가 웬만한 질문에도 기가 막히게 답을 잘한다는 거잖아요?
But maybe one of the things we're saying is it's another leap yet.
그렇지만 핵심 중 하나는 아직 넘어야 할 또 하나의 도약이 아직 남아 있다는 거고,
And what Patrick's question is getting at is to ask the better questions.
그렇기에 패트릭의 질문이 말하려는 바는, '더 나은 질문을 던지는 일'인 거죠.
────────────────────
올트먼 | 15:33
Or if we go back to this kind of timeline question, we could maybe say that
혹은 아까 말하던 것처럼 시간에 빗대어 말해보자면,
AI systems are superhuman on one minute tasks,
AI는 1분짜리 작업에서는 이미 초인적인 정도이고,
but a long way to go to the thousand hour tasks.
아직 1,000시간짜리 작업까지는 갈 길은 멉니다.
And there's a dimension of human intelligence that seems very different than AI systems when it comes to these long horizon tasks.
아직 그런 장기 시점의 과제들에 관해서 인간의 지능은 AI 시스템과는 아주 다른 한 차원이 있는 것처럼 보이고요,
Now, I think we will figure it out,
물론, 결국엔 해결책을 찾아낼 거라고 봅니다.
but today it's a real weak point.
다만 지금으로선 그런 장기 시점의 과제들이 약점이죠.
────────────────────
아브람 | 15:58
We've talked about where we are now with GPT-5.
지금까지 GPT-5와 우리가 어디까지 와 있는지,
We talked about the end goal or future goal of superintelligence.
그리고 최종 목표, 초지능이라는 미래 목표에 대해서도 이야기를 나눠봤는데요,
One of the questions that I have, of course, is what does it look like to walk through the fog between the two?
그다음으로 당연하게 드는 질문은, 현재와 초지능 사이의 안개 속을 헤쳐 나가는 과정이 실제로 어떤 모습일까 하는 겁니다.
The next question is from NVIDIA CEO Jensen Huang.
다음 질문은 엔비디아의 CEO, 젠슨 황 씨에게 받은 건데요,
I'm going to read this verbatim.
원문 그대로 한 번 읽어볼게요.
Fact is what is.
'사실'은, 있는 그대로의 '무언가'이고,
Truth is what it means.
'진실'은 그게 '무엇을 의미하느냐'입니다.
So facts are objective. Truths are personal.
그러니까 '사실'은 객관적이고, '진실'은 개인적입니다.
They depend on perspective, culture, values, beliefs, context.
'진실'은 관점, 문화, 가치관, 신념, 맥락에 따라 달라지니까요.
One AI can learn and know the facts,
하나의 AI가 '사실'을 학습해서 알 수는 있겠지만,
but how does one AI know the truth for everyone in every country and every background?
하지만 어떻게 하나의 AI가 모든 나라, 모든 배경의 사람들에게 통하는 '진실'을 알 수 있을까요?
────────────────────
올트먼 | 16:37
I'm going to accept as axioms those definitions.
일단 그 정의들을 공리로 받아들이겠습니다.
I'm not sure if I agree with them, but in the interest of time, I will just take them.
완전히 동의한다고는 못 하겠지만, 시간 관계상 그러려니 하고 받아들이겠습니다.
I will take those definitions and go with it.
그 정의를 받아들이는 것을 전제로 두고 이야기를 이어가 볼게요.
I have been surprised, I think many other people have been surprised too,
저뿐만 아니라, 다른 사람들도 놀랐다고 보는데요,
about how fluent AI is at adapting to different cultural contexts and individuals.
얼마나 AI가 서로 다른 개인과 문화적 맥락을 능숙하게 맞춰 나가는지에 대해 말이죠.
One of my favorite features that we have ever launched in ChatGPT is
챗GPT에서 지금까지 출시한 기능 중 제가 특히 좋아하는 게
the sort of enhanced memory that came out earlier this year.
올해 초에 나온 일종의 향상된 메모리 기능인데요,
It really feels like my ChatGPT gets to know me
그 덕에 정말 챗GPT가 저를 알아가고 있다는 느낌이 들거든요.
and what I care about and my life experiences and background and the things that have led me to where they are.
제가 무엇을 중요하게 여기는지, 제 삶의 경험과 배경, 그리고 그런 것들이 지금의 저를 만들게 된 과정까지 말이죠.
A friend of mine recently, who's been a huge ChatGPT user,
최근에 챗GPT를 정말 많이 쓰는 친구 한 명이
so he's got a lot of, he's put a lot of his life into all these conversations.
GPT와 대화를 나누면서 본인의 삶에 관해 얘기를 엄청 많이 했었는데요,
He gave his ChatGPT a bunch of personality tests and asked them to answer as if they were him.
그 친구가 챗GPT에 성격 검사 문제를 몇 가지 풀게 하고 마치 자기인 것처럼 답하라고 시켰답니다.
And it got the same score as he actually got, even though he'd never really talked about his personality.
근데 본인이 실제로 한 거랑 똑같은 점수가 나왔다는 거예요. 본인의 성격에 대해 제대로 말한 적도 없었는데 말이죠.
GPT
나
And my ChatGPT has really learned over the years of me talking to it about my culture, my values, my life.
그리고 제 챗GPT도 제가 몇 년 동안 문화, 가치관, 삶에 대해 오랜 시간 동안 이야기해 온 것들을 정말 많이 했고요.
And I have used, you know, I sometimes will use it in like, I'll use like a free account just to see what it's like without any of my history.
그래서 제가 가끔 기록이 전혀 없는 상태가 어떤 느낌인지 확인해 보려고, 무료 계정으로 써 보기도 하거든요?
And it feels really, really different.
근데 그 차이가 정말 심했어요.
So yeah, I think we've all been surprised on the upside of how good AI is at learning this and adapting.
그래서 그런 문화적, 경험적 차이를 학습하고 적응하는 데서 AI가 뛰어난 점에 대해 우리가 모두 좋은 쪽으로 놀랐다고 생각해요.
────────────────────
아브람 | 18:00
And so do you envision in many different parts of the world,
그렇다면 지금 상상하시는 게, 전 세계 여러 지역에서
people using different AIs with different sort of cultural norms and contexts?
사람들이 각 문화 규범과 맥락에 맞춘 서로 다른 AI를 쓰게 될 거라는 말씀인가요?
Is that what we're saying?
그런 얘기를 하고 계신 게 맞나요?
────────────────────
올트먼 | 18:09
I think that everyone will use like the same fundamental model,
저는 모두가 같은 기본 모델을 쓰게 될 거라고 생각해요.
but there will be context provided to that model that will make it behave in sort of personalized way.
하지만 그 모델에 제공되는 맥락에 따라, 모델이 일종의 개인화된 방식으로 작동하게 되겠죠.
They want their community once, whatever.
자신이 속한 커뮤니티가 가는 방향을 원하는, 뭐 그런 거죠.
────────────────────
아브람 | 18:19
I think when we're getting at this idea of facts and truth, then it brings me to,
'사실'과 '진실'이라는 개념을 파고들다 보면 자연스럽게 여러 질문으로 이어진다고 생각하는데요,
this seems like a good moment for our first time travel trip.
그래서 지금이 저희가 첫 시간 여행을 떠나기에 딱 좋은 때인 것 같아요.
Okay. We're going to 2030.
그럼 2030년으로 한 번 가봅시다.
This is a serious question, but I want to ask it with a lighthearted example.
이건 진지한 질문이지만, 가벼운 예로 물어볼게요.
Have you seen the bunnies that are jumping on the trampoline?
혹시 트램펄린에서 토끼들이 깡충깡충 뛰어다니는 영상 보셨나요?
────────────────────
올트먼 | 18:37
Yes.
네, 봤어요.
────────────────────
아브람 | 18:38
So for those who haven't seen it, maybe it,
아직 못 보신 분들을 위해 잠깐 설명해 드리자면,
it looks like backyard footage of bunnies enjoying jumping on a trampoline.
마치 집 뒷마당처럼 생긴 곳에서 토끼들이 트램펄린으로 즐겁게 뛰노는 영상입니다.
And this has gone incredibly viral recently.
그리고 그 영상이 최근에 엄청나게 빠르게 퍼졌습니다.
There's a human made song about it. It's a whole thing.
그걸 주제로 사람이 만든 노래까지 나오기도 하고 완전히 난리였어요.
And I think the reason why people reacted so strongly to it,
사람들이 그걸 보고 그렇게 떠들썩하게 반응한 이유는,
it was maybe the first time people saw a video, enjoyed it,
아마 처음에는 그냥 재밌게 봤던 영상이
and then later found out that it was completely AI generated.
나중에 알고 보니 완전히 AI가 만든 영상인 걸 뒤늦게 깨달았기 때문이라고 생각하거든요?
in this time travel trip, if we imagine in 2030, we are teenagers
이번 시간 여행 설정에서는 2030년으로 가서 저희가 십대 아이들이라고 가정해 볼게요.
and we're scrolling, whatever teenagers are scrolling in 2030,
그리고 2030년의 십대들이 뭘 보든, 우리는 그걸 끝없이 스크롤하고 있다고 쳐보는 거죠.
how do we figure out what's real and what's not real?
그때가 되면 저희가 어떻게 무엇이 진짜고 무엇이 가짜인지 알아낼 수 있을까요?
────────────────────
올트먼 | 19:18
I mean, I can give all sorts of literal answers to that question.
그러니까, 그 질문에 대해 '있는 그대로'로 여러 가지 답을 드리자면,
We could be cryptographically signing stuff and we could decide who we trust their signature,
우리는 콘텐츠에 암호학적으로 서명을 붙이고, 어떤 서명을 신뢰할지 정할 수도 있을 겁니다.
if they actually filmed something or not.
특정 영상이 진짜 누가 직접 촬영한 건지 아닌지 구분하기 위해서 말이죠.
But my sense is what's going to happen is it's just going to like gradually converge.
그런데 제 느낌으로는 앞으로 서서히 하나로 수렴해 갈 것 같아요.
You know, even like a photo you take out of your iPhone today,
있잖아요, 지금 아이폰으로 찍은 사진만 봐도
it's like mostly real, but it's a little not.
대부분은 실제와 같지만, 조금은 그렇지 않다고 볼 수 있죠.
There's like some AI thing running there in a way you don't understand and making it look like a little bit better.
당신이 모르는 사이에 그 안에서 어떤 AI가 돌아가면서, 조금 더 사진이 좋아 보이게 만들고,
And sometimes you see these weird things where...
그러다 보면 가끔 이상한 부분도 보이고 그러잖아요?
The moon.
달 부분 이라던가요?
Yeah, yeah, yeah, yeah.
네. 맞아요.
But there's like a lot of processing power
하지만 그사이에는 엄청난 연산과 후처리를 거치거든요.
between the photons captured by that camera sensor and the image you eventually see.
그 카메라 센서가 포착한 광자에서, 최종적으로 화면에 보이는 이미지 사이까지 말이죠.
And you've decided it's real enough for most people decide it's real enough,
그리고 나서야 사람들이 "아, 이 정도면 충분히 진짜 같다"라고 판단하잖아요?
but we've accepted some gradual move from when it was like photons hitting the film in a camera.
그렇게 예전에 필름에 광자가 그대로 박히던 시절에서, 서서히 지금처럼 바뀌어 온 걸 이미 받아들인 거고요.
And, you know, if you go look at some video on, TikTok,
그리고, 틱톡에서 영상 몇 개만 봐도
there's probably all sorts of video editing tools being used to make it better than reality.
현실보다 더 좋아 보이게 하려고 온갖 영상 편집 도구가 쓰이고 있다는 걸 아실 테고요.
Yeah, exactly.
네, 정확해요.
Or it's just like whole scenes are completely generated
혹은 그냥 장면 전체가 통으로 생성됐다거나,
or some of the whole videos are generated like those bunnies on that trampoline.
아니면 아예 그 트램펄린 토끼 영상처럼 영상 전체가 생성되기도 하고요.
And I think that sort of like,
그래서 제가 생각하기엔 그런 식으로,
the threshold for how real does it have to be to consider to be real will just keep moving.
"이 정도면 진짜라고 볼 수 있을까?" 하는 한곗값이 계속 이동하게 될 것 같습니다.
────────────────────
아브람 | 20:39
So it's sort of an education question.
그러니까 이건 일종의 '교육'에 관한 문제겠네요?
It's a people will...
그러니까, 그건 사람들이...
────────────────────
올트먼 | 20:45
Yeah, I mean, media is always like a little bit real and a little bit not real.
그렇죠, 매체들은 늘 조금은 진짜고 조금은 가짜니까요.
Like, you know, we watch like a sci-fi movie.
예컨대 SF 영화를 보면
We know that didn't really happen.
그게 실제로 있었던 일은 아니란 걸 알잖아요?
You watch like someone's like beautiful photo of themselves on vacation on Instagram.
인스타에서 누가 휴가 가서 찍은 근사한 사진을 볼 때도,
Like, okay, maybe that photo was like literally taken,
물론 그 사진 자체는 진짜로 찍은 거겠지만,
but you know, there's like tons of tourists in line for the same photo and that's like left out of it.
근데 아시다시피, 같은 사진을 찍으려고 줄 선 관광객이 잔뜩 있는데, 그런 건 화면에서 빠져 있잖아요?
And I think we just accept that.
그렇게 우린 그냥 그런 걸 그냥 받아들인다고 봐요.
Now, certainly a higher percentage of media both will feel not real,
이젠, 분명 매체들의 더 높은 비율이 진짜가 아닌 듯 느껴질 테지만
but I think that's been a long-term trend anyway.
그런 흐름은 어쨌든 오래전부터 이어진 흐름이기도 해요.
────────────────────
아브람 | 21:15
We're going to jump again.
그럼, 한 번 더 점프해 볼까요?
Okay.
좋습니다.
We're graduating from college, you and me.
이젠 저희가 막 대학을 졸업한 상태로 가보는 겁니다.
There are some leaders in the AI space that have said that in five years,
AI 업계의 몇몇 리더들은, 5년 안에
half of the entry-level white-collar workforce will be replaced by AI.
사무직 초년생 인력의 절반이 AI로 대체될 거라고 말합니다.
So we're college graduates in five years.
그러니 저희가 5년 안에 대학을 졸업하는 사람의 시점으로 가보는 겁니다.
What do you hope the world looks like for us?
그때 저희 앞의 세상이 어떤 모습이길 바라시나요?
I think there's been a lot of talk about how AI might cause job displacement,
AI가 일자리를 대체할 거란 얘기는 많이 나왔잖아요?
but I'm also curious...
근데 제가 또 궁금한 게...
I have a job that nobody would have thought we could have, you know,
지금 저도 예전엔 상상도 못 했던 일을 하고 있잖아요?
────────────────────
올트먼 | 21:43
Totally.
완전 그렇죠.
────────────────────
아브람 | 21:44
a decade ago.
10년 전만 해도 말이에요.
What are the things that we could look ahead?
그렇다면 과연 지금 우리는 앞으로 뭘 할 거라고 미리 내다볼 수 있을까요?
If we're thinking about...
그러니까...
────────────────────
올트먼 | 21:48
I mean, in 2035, that like graduating college student,
제 생각에 2035년에 막 대학을 졸업하는 학생이라면,
if they still go to college at all,
만약 그때도 여전히 대학을 간다면,
could very well be like,
충분히 그럴 수도 있다고 봐요.
leaving on a mission to explore the solar system on a spaceship
우주선을 타고 태양계를 탐사하는 임무에 떠난다든지,
and some kind of completely new, exciting, super well-paid, super interesting job
그런 일종의 완전히 새롭고 짜릿하고, 보수도 빵빵하고, 엄청 흥미로운 일을 한다거나 말이죠.
and feeling so bad for you and I,
그리고 저흰 좀 안쓰럽게 느껴질 겁니다.
that like we had to do this kind of like really boring old kind of work and everything is just better
"우린 옛날에 그렇게 지루한 구식의 일들을 했구나. 지금은 이렇게나 더 좋아졌는데..." 하고 말이죠.
like, I...
그러니까, 저는...
10 years feels very hard to imagine at this point
지금 이 시점에서 10년 뒤를 상상하는 게 정말 어렵게 느껴져요.
────────────────────
아브람 | 22:13
because it's too far?
너무 멀기 때문인가요?
────────────────────
올트먼 | 22:14
It's too far.
네, 너무 멀죠.
If you compound the current rate of change for 10 more years,
지금의 변화 속도가 복리처럼 누적돼서 10년 더 이어진다고 생각해 보면,
It's probably can't even...
아마 상상조차 못 할...
I mean i think now would be really hard to imagine 10 years ago.
사실 지금 이 순간도 10년 전에 상상하기가 정말 어려웠었잖아요?
But I think 10 years forward will be even much harder much more different.
근데 앞으로의 10년은 훨씬 더 어렵고, 훨씬 더 달라질 거라고 생각해요.
────────────────────
아브람 | 22:32
So let's make it five years.
그럼, 기간을 10년 말고 5년으로 줄여볼까요?
We're still going to 2030.
2030년을 기준으로 생각해 보는 겁니다.
I'm curious what you think the pretty short-term impacts of this will be for young people.
지금부터 2030년까지, 이제 몇 년 안 남은 기간 내에 젊은 세대에게 끼칠 영향들에 대해 어떻게 생각하시나요?
I mean, these like, half of entry-level jobs replaced by AI
이를테면 "사회 초년생, 신입 일자리의 절반이 AI로 대체된다"라는 얘기가
makes it sound like a very different world that they would be entering than the one that I did.
앞으로 취직하려는 친구들에겐 제가 신입으로 들어갈 때와 완전히 다른 세상일 거라는 거니까요.
────────────────────
올트먼 | 22:55
I think it's totally true that some classes of jobs will totally go away.
저는 일부 일자리가 완전히 사라질 거라는 말이 전적으로 옳다고 봅니다.
This always happens. And young people are the best at adapting to this.
그런 일은 늘 있었습니다. 그리고 젊은 층의 사람들은 그런 변화에 누구보다 잘 적응해요.
I'm more worried about what it means, not for the 22-year-old,
그래서 저는 22살 청년들에게 끼칠 영향보다는,
but for the 62-year-old that doesn't want to go retrain or rescale or whatever the politicians call it
정치인이 뭐라고 부르든, '재교육'이나 '재훈련'을 하기 싫어하는 62세의 분들이 더 걱정될 뿐이죠.
that no one actually wants, but politicians most of the time.
솔직히 그런 식으로 이름을 부르는 걸 아무도 내심 원하진 않는데, 대개 정치인들은 안 그렇잖아요?
If I were 22 right now and graduating college,
만약 제가 지금 22살이고, 막 대학을 졸업하는 상황이라면
I would feel like the luckiest kid in all of history.
역사상 가장 운 좋은 세대라고 느꼈을 겁니다.
────────────────────
아브람 | 23:21
Why?
왜죠?
────────────────────
올트먼 | 23:22
Because there's never been a more amazing time to go create something totally new,
왜냐하면 지금만큼 완전히 새로운걸 직접 만들어볼 수 있는 멋진 때는 없었으니까요.
to go invent something, to start a company, whatever it is.
뭔가 발명해도 좋고, 회사를 차려도 좋고, 뭐든지 말이죠.
I think it is probably possible now to start a company that is a one person company that will go on to be worth like more than a billion dollars.
그리고 이제는 아마 1인 회사로 시작해서 기업가치가 한 1조 4천억 원을 넘는 수준까지 갈 수도 있다고 봐요.
And more importantly than that, deliver an amazing product and service to the world.
그리고 그보다 더 중요한 건, 세상에 놀라운 제품과 서비스를 실제로 내놓을 수 있다는 거고요.
And that is like a crazy thing.
그게 진짜 말도 안 되는 일이잖아요?
You have access to tools that can let you do what used to take teams of hundreds.
이제는 예전에 수백 명으로 구성된 팀이 하던 일도 해낼 수 있게 해주는 도구를 활용할 수 있으니까요.
And you just have to like, you know, learn how to use these tools and come up with a great idea.
그러니까 이제는 AI 도구들을 어떻게 쓰는지만 배운 다음, 근사한 아이디어를 떠올리기만 하면 되는 거죠.
And it's like quite amazing.
그런 사실이 정말... 상당히 놀랍지 않나요?
────────────────────
아브람 | 23:55
If we take a step back,
한 걸음 물러서서 보자면,
I think the most important thing that this audience could hear from you on this optimistic show is in two parts.
저희의 낙관적인 관점을 가진 프로그램에서 시청자들이 올트먼 씨로부터 꼭 들어야 할 핵심은 두 가지라고 보는데요,
First, there's tactically, how are you actually trying to build the world's most powerful intelligence?
첫째는, "실무적으로 '세계에서 가장 강력한 지능'을 실제로 어떻게 만들고 있는가?" 입니다.
And what are the rate limiting factors to doing that?
그리고 "그 길에서 개발의 제한 요인들은 무엇인가?"
And then philosophically,
그리고 두 번째로는, "철학적으로"
how are you and others working on building that technology in a way that really helps and not hurts people?
"올트먼 씨와 업계의 다른 분들은 AI 기술을 어떻게 사람들에게 해가 되지 않고 정말 도움이 되는 방식으로 만들고 있는가?" 입니다.
So just taking the tactical part right now.
그 둘 중에서 먼저 실무적인 부분부터 짚어보자면,
My understanding is that there are three big categories that have been limiting factors for AI.
제가 알기로는 AI를 그동안 가로막아온 세 가지 큰 제한 요인이 있는 걸로 알고 있거든요.
The first is compute.
첫째는 연산 자원이고,
The second is data.
둘째는 학습을 위한 데이터,
And the third is algorithmic design.
셋째는 알고리즘의 설계죠.
How do you think about each of those three categories right now?
그래서 올트먼 씨는 그 세 가지의 제한 요인을 지금 각각 어떻게 보고 계신 지 궁금해요.
And if you were to help someone understand the next headlines that they might see,
그리고 사람들이 앞으로 보게 될 AI 기술 관련 뉴스 헤드라인을 이해할 수 있게 도와준다고 하다면,
how would you help them make sense of all of this?
이 모든 걸 어떻게 이해가 되게 설명해 주시겠어요?
────────────────────
올트먼 | 24:51
I would say there's a fourth two, which is figuring out the products to build.
저는 네 번째 제한 요소도 있다고 보는데요, 바로 어떤 제품을 만들지 가닥을 잡는 일이죠.
Like, scientific progress on its own not put into the hands of people
사람들 손에 쥐어지지 못한 채로 남는 과학적 진보만으론
is of limited utility and doesn't sort of co-evolve with society in the same way.
효용이 제한되고, 사회와 같은 속도로 함께 진화하지 못하거든요.
But if I could hit all four of those.
그 네 가지 제한 요소를 다 잘 해낼 수 없다면 말이죠.
So on the compute side,
우선 연산 자원 측면부터 보자면,
yeah, this is like the biggest infrastructure project certainly that I've ever seen.
AI 연산 자원 인프라 구축은 단연코 제가 지금껏 본 것 중에서는 가장 큰 인프라 프로젝트예요.
Possibly it will become the, I think it will.
아마 그렇게 될 겁니다, 제 생각엔 그래요.
Maybe already is the biggest and most expensive one in human history.
어쩌면 이미 인류 역사상 가장 크고 비싼 프로젝트일지도 모르죠.
But the whole supply chain from making the chips and the memory
하지만 전체 공급망 전체를 보면, 칩과 메모리를 만드는 일부터
and the networking gear, racking them up in servers,
네트워킹 장비를 갖추고, 서버에 랙에 장착하는 과정,
doing, you know, a giant construction project to build like a mega mega data center,
초 초대형 데이터센터를 짓는 거대한 건설 프로젝트를 진행하고,
putting the, you know, finding a way to get the energy, which is often a limiting factor
그리고 흔히 병목이 되는 전력을 어떻게 확보할지 길을 찾는 것과
piece of this and all the other components together.
그 밖의 다른 모든 구성 요소를 한데 맞물리게 해야 하는 작업까지 해야 하니까요.
This is hugely complex and expensive and we are,
그렇듯 AI 인프라 구축 프로젝트는 엄청 복잡하고 돈도 많이 들고, 저희는...
we're still doing this in like a
저희는 아직도 이걸 좀, 뭐랄까...
sort of bespoke one-off way, although it's getting better.
맞춤 제작에 가까운 '일회성' 방식으로 하고 있어요. 물론 점점 나아지고는 있지만,
Like eventually we will just design a whole kind of like mega factory
결국엔 초대형 공장을 통째로 설계하는 방식으로 가겠죠.
that takes, you know, I mean, spiritually,
그러니까 정신적으로 ( 비유적으로 ) 말하자면,
it will be melting sand on one end and putting out fully built AI compute on the other.
한쪽 끝에서는 모래를 녹이는 데서 시작해 다른 쪽 끝에서는 완성된 AI 연산 설비가 뽑혀 나오는 초대형 공장이 되는 겁니다.
But we are a long way to go from that.
하지만 거기까지는 아직 갈 길이 멀죠.
And it's an enormously complex and expensive process.
엄청나게 복잡하고 비용이 큰 과정일 테고요.
We are putting a huge amount of work into building out as much compute as we can and to do it fast.
저희는 가능한 한 많은 연산 자원을 최대한 빠르게 늘리는 데 엄청난 공을 들이고 있습니다.
And, you know, it's going to be like sad
그렇지만, 이게 좀 안타깝게도
because GPT-5 is going to launch and there's going to be another big spike in demand and we're not going to be able to serve it.
GPT-5가 출시되면 수요가 또 한 번 폭증할 텐데, 당장은 그걸 다 감당하진 못할 거예요.
And it's going to be like those early GPT-4 days and
초기 GPT-4 때처럼 될 테고,
the world just wants much more AI than we can currently deliver.
세상은 지금 저희가 제공할 수 있는 것보다, 훨씬 더 많은 AI를 원하고 있으니까요.
And building more compute is an important part of doing that.
연산 능력을 위한 인프라를 더 늘려나가는 게 문제 해결을 위한 핵심이겠죠.
That's actually, this is what I expect to turn the majority of my attention to is how we build compute at much greater scales.
그래서 앞으로 저는 연산 인프라를 어떻게 훨씬 더 큰 규모로 구축할지에 대부분의 관심을 쏟게 될 거 같아요.
So how we go from millions to tens of millions and hundreds of millions,
어떻게 수백만 단위에서 수천만, 수억대로 늘릴지를 고민해서,
and eventually, hopefully billions of GPUs that are sort of in service of what people want to do with this.
그리고 결국에는, 수십억대의 GPU를 갖춰서 사람들이 하고자 하는 모든 일에 기여할 수 있는 수준까지요.
────────────────────
아브람 | 26:52
When you're thinking about it, what are the big challenges here in this category that you're going to be thinking about?
연산 인프라 범주에서 AI 기술로 사람들에게 기여하기 위해 앞으로 주로 마주하게 될 주요 과제들은 무엇이라고 보시나요?
────────────────────
올트먼 | 26:57
We're currently most limited by energy.
현재 가장 큰 제한 요인은 '에너지'에요.
You know, like if you're going to run a gigawatt scale data center,
예를 들어 기가와트급 데이터센터를 돌리려면,
it's like a gigawatt. How hard can that be to find?
"기가와트면 되잖아, 그게 뭐가 어렵겠어?" 싶겠지만,
It's really hard to find a gigawatt of power available in short term.
근데 사실은 단기간에 기가와트급 전력을 확보하기가 정말 어렵거든요.
We're also very much limited by the processing chips and the memory chips,
또한 연산용 가속기 칩과 메모리 칩들을 수급하는 데에도 제약을 많이 받을 테고요.
how you package these all together, how you build the racks.
모든 부품을 서버에 통합, 랙 단위로 어떻게 배치할지도 과제겠고,
And then there's like a list of other things that are, you know, there's like permits, there's construction work.
그 밖에도 데이터 센터 건설을 위한 인허가 및 공사 문제처럼 해결해야 할 이런저런 이슈가 줄줄이 있죠.
But again, the goal here will be to really automate this.
다시 말씀드리지만, 여기서 가장 중요한 목표는 이 모든 과정을 제대로 자동화하는 겁니다.
Once we get some of those robots built, they can help us automate it even more.
로봇을 일부 갖추게 되면, 이 연산 인프라 구축 과정의 자동화를 한층 더 끌어올리는 데 도움을 줄 테고요.
But just you know, like a world where you can basically pour in money and get out a pre-built data center.
그렇게 이상적으로는 돈만 쏟아부으면 '완성형 데이터센터'가 툭 하고 나오는 세상이 온다면,
So that'll be a huge unlock if we can get it to work.
그 방식을 실제로 작동하게 만들 수만 있다면, 엄청난 돌파구가 될 겁니다.
Second category, data?
두 번째 제한 요소가 '데이터'였죠?
These models have gotten so smart.
이제 GPT 같은 모델들은 정말 영리해졌습니다.
There was a time when we could just feed it another physics textbook
한때는 물리학 교과서를 하나 더 먹여주면
and it got a little bit smarter at physics.
물리 쪽 머리가 조금 더 똑똑해지곤 했지만,
But now, honestly, GPT-5 understands everything in a physics textbook pretty well.
하지만 이제는, 솔직히 GPT-5가 물리학 교과서에 담긴 내용은 웬만큼 다 잘 이해하고 있죠.
We're excited about synthetic data.
저흰 합성 데이터에 대해 기대하고 있고,
We're very excited about our users helping us create harder and harder tasks and environments to go off and have the system solved.
또 사용자들이 점점 더 어려운 과제와 환경을 만들어 주고, AI 시스템이 직접 풀어보게 하는 것에도 큰 기대를 하고 있어요.
But I think data will always be important,
물론 데이터는 앞으로도 항상 중요하겠지만,
but we're entering a realm where the models need to learn things that don't exist in any data set yet.
하지만 이제는 어떤 데이터셋에도 아직 존재하지 않는 것들을 AI 모델들이 스스로 배워나가야 하는 영역으로 접어들고 있어요.
They have to go discover new things. So that's like a crazy new step.
이젠 직접 새로운 걸 발견해야 하는 거죠. 정말 새로우면서 X친 단계죠.
────────────────────
아브람 | 28:22
How do you teach a model to discover new things?
그렇다면 AI 모델에게 어떻게 새로운 것을 발견하는 법을 학습시킬 수 있나요?
────────────────────
올트먼 | 28:24
Well, humans can do it.
음, 인간이 그걸 할 수 있잖아요?
Like we can go off and come up with hypotheses and test them and
이를테면 직접 나가 가설을 세워서 그걸 검증해 보고
get experimental results and update on what we learn.
실험의 결과를 얻고, 거기서 배운 걸로 다시 업데이트하는...
So probably the same kind of way.
아마 그런 비슷한 방식으로 이루어지겠죠.
────────────────────
아브람 | 28:33
And then there's algorithmic design.
다음 제한 요소로는, '알고리즘 설계'가 있습니다.
────────────────────
올트먼 | 28:35
We've made huge progress on algorithmic design.
저흰 알고리즘 설계에선 엄청난 진전을 이뤘습니다.
The thing that OpenAI does best in the world is
제가 생각하기에 오픈AI가 세계에서 가장 잘한 건,
we have built this culture of repeated and big algorithmic research gains.
큰 알고리즘의 연구 성과를 거듭 만들어내는 문화를 만들어 왔다는 겁니다.
So we kind of figured out what became the GPT paradigm.
그래서 'GPT 패러다임'으로 자리 잡은 핵심 방식을 어느 정도 알아냈고
We figured out what became the reasoning paradigm.
또, '추론 패러다임'을 자리 잡은 핵심이 무엇인지도 파악했습니다.
We're working on some new ones now.
지금은 새로운 패러다임들도 몇 가지 연구 중이고요.
But it is very exciting to me to think that there are still many more orders of magnitudes of algorithmic gains ahead of us.
앞으로도 알고리즘적 성과가 여러 자릿수 규모로 더 남아 있다고 생각하면, 정말 흥분돼요.
We just yesterday released a model called GPT-OSS, an open source model.
그리고 어제 막 GPT-OSS라는 오픈소스 모델을 공개했어요.
It's a model that is as smart as o4 mini, which is a very smart model that runs locally on a laptop.
원격 서버에 의존하지 않고 노트북 자체에서 돌아가는 아주 영리한 모델인 o4 mini와 맞먹는 지능을 가진 모델이죠.
And this blows my mind.
정말 엄청나게 놀랍지 않나요?
Like, if you had asked me a few years ago when we'd have a model of that intelligence running on a laptop,
이를테면, 몇 년 전에 제게 "그 정도 지능의 모델이 노트북에서 돌아가는 게 언제쯤 가능할까요?"라고 물으셨다면
I would have said many, many years in the future.
저는 "아직도 한참, 여러 해는 더 가야 한다"고 했을 겁니다.
But then we found some algorithmic gains,
근데 그사이에 알고리즘의 성과를 몇 가지 찾아냈고,
particularly around reasoning, but also some other things that let us do a tiny model that can do this amazing thing.
특히 추론 쪽을 중심으로, 다른 부분들에서도 성과가 있었고, 그 덕분에 이렇게 놀라운 일을 해내는 작은 모델을 만들 수 있게 됐죠.
And you know, those are the most fun things.
뭐랄까, 제게는 그런 게 제일 재미있는 부분인 거 같아요.
That's kind of the coolest part of the job.
이 일이 갖는 가장 멋진 부분이기도 하고요.
────────────────────
아브람 | 29:42
I can see you really enjoying thinking about this.
지금 이 주제에 대해 얘기하시는 것만 봐도 정말 즐거워하시는 게 보여요.
I'm curious for people who don't quite know what you're talking about,
그런데 아직 올트먼 씨가 무슨 말씀을 하시는지 제대로 모를 수 있는 분들을 위해 제가 궁금한 게 있는데요,
who aren't familiar with how an algorithmic design would lead to a better experience that they actually use.
특히 알고리즘의 설계가 실제로 어떻게 사용자 경험을 더 좋아지는 쪽으로 만드는지에 대해 익숙하지 않은 분들을 위해서 말이죠.
Could you summarize the state of things right now?
그래서 지금 상황을 한 번 요약해 주실 수 있을까요?
Like, what is it that you're thinking about when you're thinking about how fun this problem is?
이를테면, 이 문제가 왜 그렇게 재밌는지에 대해 생각하실 때 머릿속에 뭐가 떠오르나요?
────────────────────
올트먼 | 30:02
Let me start back in history and then I'll get to some things for today.
먼저 과거 이야기부터 시작해서, 오늘 얘기로 넘어가 볼게요.
So GPT-1 was an idea at the time that was quite mocked.
GPT-1은 당시 꽤 조롱받던 아이디어였어요.
by a lot of experts in the field,
업계 전문가들 사이에서 말이죠.
which was, can we train a model to play a little game?
당시 아이디어가 "이 모델이 간단한 게임을 할 수 있도록 훈련할 수 있을까?" 였는데요,
Which is show it a bunch of words and have it guess the one that comes next in the sequence.
단어들을 한 묶음 보여주고, 다음 순서에 올 단어를 맞히게 하는 게임이었죠.
That's called unsupervised learning.
그런 걸 비지도 학습이라고 하는데요,
There's not, you're not really saying like, this is a cat, this is a dog.
"이건 고양이, 저건 개" 하면서 알려주는 게 아니라,
You're just saying, here's some words, guess the next one.
그냥 "여기 단어 몇 개 줄 테니까, 다음에 나올 단어를 맞혀봐"라고 하는 거죠.
And the fact that that can go learn these very complicated concepts
그런 방식으로 굉장히 복잡한 개념들까지 배울 수 있다는 사실이
that can go learn all the stuff about physics and math and programming
예를 들면, 물리, 수학, 프로그래밍 같은 내용들을 배우고
and keep predicting the word that comes next and next and next and next
계속해서 다음 단어, 그다음 단어를 줄줄이 예측한다는 발상 자체가
seemed ludicrous, magical, unlikely to work.
당시엔 터무니없고, 마법같이, 도저히 될 것 같지않는 것처럼 보였죠.
Like, how is that all going to get encoded?
"대체 그게 어떻게 전부 모델 안에 '인코딩' 되겠어?" 하면서 말이에요.
And yet humans do it.
그럼에도 그 터무니없는 일들을 인간들은 하고 있죠.
You know, babies start hearing language and figure out what it means, kind of, largely,
아시다시피, 아기들은 말을 들으면서 그 의미를 어느 정도 알아내잖아요?
or at least to some significant degree on their own.
적어도 상당 부분은 스스로 해내죠.
And so we did it.
그렇듯, 오픈AI도 해낸 겁니다.
And then we also realized that if we scaled it up, it got better and better.
그리고 규모를 키우면 더 좋아진다는 걸 깨달았어요.
But we had to scale over many, many orders of magnitude.
다만 규모를 정말 자릿수 단위로 어마어마하게 키워야 했고요.
So it wasn't that good in the GPT-1 day.
그래서 GPT-1 시절엔 그렇게 좋진 않았고,
It wasn't good at all in the GPT-1 days.
아니, 사실 GPT-1은 완전 형편없었다고 해야 맞겠네요.
And a lot of experts in the field said, oh, this is ridiculous.
그래서 업계 전문가들 상당수가 "말도 안 된다"라고 했었죠.
It's never going to work. It's not going to be robust.
절대 그렇게 될 리가 없고, 견고하지도 않을 거야 하고 말이에요.
But we had these things called scaling laws.
근데 저희는 '스케일링 법칙'이란 걸 발견했어요.
And we said, okay, so this gets predictably better as we increase compute, memory, data, whatever.
즉, 연산, 메모리, 데이터 같은 자원을 늘리면 예측할 수 있게 될 정도로 성능이 좋아질 거라고 봤고,
And we can decide,
그 덕에 저희는 결정할 수 있었던...
we can use those predictions to make decisions about how to scale this up and do it and get great results.
그 예측을 바탕으로 어떻게 규모를 키울지 결정해서 좋은 결과를 낼 수 있었고,
And that has worked over yeah, a crazy number of orders of magnitude.
그리고 그 법칙은 말도 안 되게 많은 자릿수 단위로 규모가 달라져도 계속 통했죠.
And it was so not obvious at the time.
그땐 그게 전혀 자명한 게 아니었거든요.
I think the reason the world was so surprised is that that seemed like such an unlikely finding.
사람들이 그렇게 놀란 건, 그게 도저히 믿기 힘든 발견이었기 때문이라고 생각해요.
Another one was that we could use these language models with reinforcement learning where we're saying,
또 하나는 이 언어 모델에 강화 학습을 결합하는 거였어요.
this is good, this is bad, to teach it how to reason.
"이건 좋아", "이건 별로야"라고 피드백을 주면서 추론하는 법을 가르친 거죠.
And this led to the o1 and o3 and now the GPT-5 progress.
그리고 그 결과가 쌓여 o1, o3를 거쳐, 지금의 GPT-5까지 이어진 거고요.
That was another thing that felt like, if it works, it's really great.
그것도 "되기만 하면 진짜 대박인데" 싶었던,
But no way this is going to work. It's too simple.
"근데 될 리가 없어 보여, 너무 단순해" 싶었던 아이디어였죠.
And now we're on to new things. We've figured out how to make much better video models.
그리고 지금은 또 새 걸 해보고 있어요. 훨씬 더 나은 비디오 모델을 만드는 방법도 찾아냈고,
We are discovering new ways to use new kinds of data and environment to kind of scale that up as well.
그걸 새로운 종류의 데이터와 환경을 활용해 규모를 더 키우는 방법들 또한 찾고 있어요.
And I think, again, five, 10 years out, that's too hard to say in this field.
그래서 다시 말씀드리자면, AI 분야에서 5~10년 뒤를 내다보는 건, 여전히 너무 어렵습니다.
But the next couple of years, we have very smooth, very strong scaling in front of us.
하지만 우리 앞의 몇 년간은 확장 ( 스케일링 )이 아주 강하게 이어질 거라고 봅니다.
────────────────────
아브람 | 32:35
I think it has become a sort of public narrative that we are on this smooth path from 1 to 2 to 3 to 4 to 5 to more.
제 생각에 대중에겐 GPT가 1에서 2, 3, 4, 5, 그 이후로 매끈하게 나아가고 있다는 일종의 서사가 자리 잡은 걸로 보이지만,
But it also is true behind the scenes that it's not linear like that.
이면을 들여다보면, 실제로는 발전이 그렇게 선형적으로 진행되진 않잖아요?
It's messier.
현실은 훨씬 더 어수선할 텐데,
Tell us a little bit about the mess before GPT-5.
GPT-5 이전의 그 '어수선함'에 대해 조금만 들려주세요.
What were the interesting problems that you needed to solve?
지금까지 발전의 과정에서 어떤 흥미로운 문제들을 해결해야 했었나요?
────────────────────
올트먼 | 33:00
We did a model called Orion that we released as GPT 4.5.
저희는 '오리온'이라는 모델을 만들었고, 그걸 GPT-4.5로 공개했었어요.
And we had, we did too big of a model.
근데 그 모델을 너무 크게 만들어 버렸어요.
It was just, it was, it's a very cool model, but it's unwieldy to use.
모델 자체는 정말 좋았는데, 쓰자고 하니 다루기가 불편했어요.
And we realized that for kind of some of the research we need to do on top of a model, we need a different shape.
그 모델을 기반으로 진행해야 하는 일부 연구에는 아예 다른 형태 (아키텍처) 가 필요하다는 걸 깨달았죠.
So we followed one scaling law that kept being good without, without really internalizing.
그래서 계속 잘 먹히던 한 가지 스케일링 법칙의 의미를 제대로 체화하진 못한 채 따라갔는데,
There was a new, even steeper scaling law that we got better returns for compute on, which was this reasoning thing.
사실은 더 가파른 스케일링 법칙이 있었고, 적용하니 추론 영역에서 연산력 대비 효율이 더 잘 나왔죠.
So that was one alley we went down and turned around,
그런 게 저희가 들어가 봤다가 되돌아 나온 하나의 골목 같은 건데,
but that's fine. That's part of research.
연구의 일부라고 봐서 괜찮다고 생각해요.
We had some problems with the way we think about our data sets
음, 그리고 데이터셋을 바라보는 방식에도 문제가 좀 있었습니다.
as these models really have to get this big and you know, learn from this much data.
모델이 계속 커지고, 많은 데이터에서 학습해야 하다 보니 생기는 문제였죠.
So yeah, I think in the middle of it, in the day-to-day,
그러니까요, 현장의 한가운데 있다 보면, 그날그날
you make a lot of U-turns as you try things or you have an architecture idea that doesn't work.
이것저것 시도해 보거나 구조 ( 아키텍처 ) 아이디어가 잘 안 먹히면 유턴도 많이 하게 되거든요.
But the aggregate, the summation of all the squiggles has been remarkably smooth on the exponential.
그래도 전체로 봤을 때, 그 자잘한 굴곡들을 합친 궤적은 지수 곡선 위에서 놀라울 만큼 매끄럽게 이어졌죠.
────────────────────
아브람 | 33:59
One of the things I always find interesting is that
제가 늘 흥미롭게 느끼는 점은,
by the time I'm sitting here interviewing you about the thing that you just put out,
GPT-5를 막 내놓셨는데, 이렇게 앉아 인터뷰하고 있는 이 시점이면
you're thinking about the next.
이미 다음 걸 생각하고 계신 듯하다는 겁니다.
What are the things that you can share that are at least the problems that you're thinking about
지금 고민하고 계신 문제들 가운데, 최소한으로 공유해 주실 수 있는 게 있을까요?
that I would be interviewing you about in a year if I came back?
만약 제가 1년 뒤에 올트먼 씨를 다시 찾아뵌다면 여쭤보게 될 것들에 대해 말이죠.
────────────────────
올트먼 | 34:24
I mean, possibly you'll be asking me like,
음, 어쩌면 이런 질문을 하게 될 수도 있을 거 같아요.
what does it mean that this thing can go discover new science?
"이걸로 새로운 과학을 스스로 발견할 수 있다면, 그게 뭘 의미하는 건가요?"
────────────────────
아브람 | 34:29
Yeah.
맞아요. 그런 질문들.
────────────────────
올트먼 | 34:30
How is the world supposed to think about GPT-6 discovering new science?
"GPT-6가 새로운 과학을 발견하는걸 세상은 어떻게 생각해야 하는 걸까요?"
Now, maybe not, like maybe we don't deliver that, but it feels within grasp.
물론 아닐 수도 있고, 거기까진 못 갈 수도 있죠. 하지만 느낌이 마치 손에 닿을 듯해요.
────────────────────
아브람 | 34:39
If you did, what would you say?
만약 해내신다면, 뭐라고 말씀하시겠어요?
What would the implications of that kind of achievement be?
그 성취가 가져올 영향은 ( 파급효과 ) 무엇일까요?
Imagine you do succeed.
실제로 성공했다고 가정해 보는 겁니다.
────────────────────
올트먼 | 34:48
Yeah, I mean, I think the great parts will be great, the bad parts will be scary, and the bizarre parts will be like,
그냥, 좋은 건 정말 굉장할 거고, 나쁜 건 꽤 무서울 거고, 기이한 것들은...
bizarre on the first day and then we'll get used to them really fast.
첫날엔 기괴해 보여도 금방 익숙해질 겁니다.
so we'll be like, oh it's incredible that this is like, being used to cure disease
그래서 "와, 이게 병을 치료하는 데 쓰인다니 놀랍다"할 테고,
and be like oh it's extremely scary that models like this are being used to like create new biosecurity threats
그와 동시에 "이런 모델이 새로운 생물 안보 위협을 만드는 데 쓰인다니 정말 무섭다"라고도 하겠죠.
and then we'll also be like man it's really weird to like, live through watching the world speed up so much
그리고 "세상이 이렇게까지 가속되는 걸 직접 겪는 게 참 묘하다" 싶은 순간들도 올 거예요.
and you know the economy grows so fast
경제가 믿기 힘들 만큼 빠르게 성장할 테고,
and the like it will feel like vertigo inducing sort of the rate of change.
그 변화의 속도가 현기증을 유발하는 수준처럼 느껴질 정도일 겁니다.
And then like happens with everything else,
하지만 결국 다른 일들과 마찬가지로,
the remarkable ability of people, of humanity to adapt to kind of like any amount of change.
웬만한 변화엔 다 적응해 버리는 인류의 놀라운 능력을 또 보여줄 거라고 봅니다.
We'll just be like, okay, you know, this is like, this is it.
"그래, 알겠어. 이게 현실이지" 하고 받아들이겠죠.
A kid born today will never be smarter than AI. Ever.
오늘 태어난 아이가 AI보다 더 똑똑해지는 일은 영원히 없을 겁니다. 단 한 번도요.
And a kid born today, by the time that kid kind of understands the way the world works,
그리고 그 아이가 세상이 어떻게 돌아가는지 어느 정도 이해할 때쯤이면,
will just always be used to an incredibly fast rate of things improving and discovering new science.
믿기 힘들 만큼 빠른 속도의 개선과 새로운 과학의 발견에 이미 익숙해져 있을 거예요.
They will never know any other world. It will seem totally natural.
다른 어떤 세상은 알지도 못할 겁니다. 발전한 세상이 완전히 자연스러운 일처럼 보일 테니까요.
It will seem unthinkable and Stone Age-like that we used to use computers or phones or any kind of technology that was not way smarter than we were.
우리보다 훨씬 덜 똑똑한 컴퓨터나 휴대폰 같은 기술을 쓰곤 했다는 사실이 상상도 못 할 석기시대 얘기처럼 들릴 겁니다.
You know, we will think how bad those people of the 2020s had it.
나중엔 "와, 2020년대 사람들은 진짜 살기 힘들었겠다" 하게 될 거예요.
────────────────────
아브람 | 36:12
I'm thinking about having kids.
제가 요즘 아이를 가질까 생각 중이거든요.
────────────────────
올트먼 | 36:14
You should. It's the best thing ever.
가지시는 게 좋을 겁니다. 인생 최고의 일이니까요.
────────────────────
아브람 | 36:15
I know you just had your first kid.
올트먼 씨의 첫 아이가 태어난 지 얼마 안 된 거로 아는데,
How does what you just said affect how I should think about parenting a kid in that world?
말씀하신 그런 미래가 온다면, '어떻게 아이를 키워야 할지'에 대한 생각에 어떤 영향을 끼칠까요?
What advice would you give me?
제게 어떤 조언을 해주시겠어요?
────────────────────
올트먼 | 36:30
Probably nothing different than the way we've been parenting kids for tens of thousands of years.
아마 수만 년 동안 우리가 아이를 키워온 방식과 크게 다를 건 없을 거예요.
Like, love your kids. Show them the world.
아이를 사랑해 주고, 세상을 보여주고,
Like, support them in whatever they want to do and teach them how to be a good person.
그리고 무엇을 하고 싶어 하든 그 길을 지지해 주고, 좋은 사람이 되는 방법을 가르쳐 주는 거죠.
That probably is what's going to matter.
결국 중요한 건 아마 그거일 거예요.
────────────────────
아브람 | 36:45
It sounds a little bit like some of the, you know, you've said a couple of things like this that, you know,
들어보면 약간...그러니까, 전에도 몇 가지 비슷한 말씀을 하셨잖아요?
you might not go to college.
이를테면 "대학에 안 가게 될 수도 있다" 같은...
There are a couple of things that you've said so far that feed into this, I think.
지금까지 하신 몇몇 말씀들이 그런 생각들을 뒷받침하는 것 같거든요. 제 생각에는 말이죠.
And it sounds like what you're saying is...
그리고 그 말씀의 요지가 어떻게 들리냐면,
there will be more optionality for them in a, in a world that you envision
올트먼 씨가 그리는 미래 세계에선 "아이들이 선택의 폭이 훨씬 넓어질 것이고"
and therefore they will have more, more ability to say, I want to build this.
"그 덕에 아이들이 '이걸 만들고 싶어'라고 말하고 실제로 그걸 해낼 수 있는 능력도 더 커질 것이다"
Here's the super powered tool that will help me do that. or...
"그걸 도와줄 초강력 도구가 여기 있으니까" 같은...
────────────────────
올트먼 | 37:16
Yeah. Like, I want my kid to think I had a terrible constrained life
맞아요. 저는 제 아이가 "아빠는 진짜 끔찍하게 제약된 삶을 살았구나"하고 느꼈으면 해요.
and that he has this incredible infinite canvas of stuff to do.
그리고 그 아이에겐 하고 싶은 일을 펼칠 수 있는 무한한 캔버스가 있다고 느끼길 바라고요.
That is like the way of the world.
그게... 이 세상이 돌아가는 방식이죠.
────────────────────
아브람 | 37:28
We've said that 2035 is a little bit too far in the future to think about.
2035년은 내다보고 생각하기에 아직은 조금 너무 먼 미래라고 말했잖아요?
So maybe this was going to be a jump to 2040, but maybe we'll keep it shorter than that.
원래라면 2040년에 대해서도 이야기해 보려고 했는데, 그보단 조금 가까운 시점으로 해보죠.
When I think about the area where AI could have, for both our kids and us,
AI가 저희와 아이들 모두에게 영향을 미칠 수 있는 분야를 떠올려보면요
the biggest genuinely positive impact on all of us, it's health.
우리 모두에게 가장 크게, 진짜로 긍정적 영향을 줄 분야는 '건강'이라고 보는데요,
So if we are in, pick your year, call it 2035.
그러니, 연도는 아무 해나 잡아 2035년이라고 했을 때
And I'm sitting here and I'm interviewing the dean of Stanford Medicine.
제가 여기 앉아 스탠포드 의대 학장과 인터뷰를 한다면,
What do you hope that he's telling me AI is doing for our health in 2035?
그분이 2035년에 AI가 우리의 건강을 위해 무엇을 하고 있다고 말하길 바라세요?
────────────────────
올트먼 | 38:02
Start with 2025.
2025년, 지금 시점부터 얘기해 보죠.
────────────────────
아브람 | 38:04
Okay. Yeah, but...
네, 그것도 좋지만...
────────────────────
올트먼 | 38:05
One of the things we are most proud of with GPT-5 is how much better it's gotten at health advice.
저희가 이번 GPT-5에서 가장 자랑스러운 부분 중 하나는, 건강 관련 조언이 압도적으로 좋아졌다는 거예요.
People have used the GPT-4 models a lot for health advice.
사람들이 GPT-4 모델을 건강 상담에 정말 많이 써왔거든요.
And, you know, I'm sure you've seen some of these things on the internet where people are like,
아마 인터넷에서 이런 얘기들 보셨을 텐데, 사람들이 말하길,
I had this life-threatening disease and no doctor could figure it out
"제 생명을 위협하는 병이 있었는데 어떤 의사도 무슨 병인지 아무도 못 밝혔어요"
and I, like, put my symptoms and a blood test into ChatGPT.
"그래서 제가 겪고 있는 증상이랑 혈액검사 결과를 챗GPT에 넣어봤죠"
It told me exactly the right thing I had.
"그랬더니 제가 갖고 있는 병이 어떤 병인지 정확히 알려주더라고요"
I went to a doctor. I took a pill. I'm cured.
"그 결과를 들고 의사를 찾아가 약을 받아먹었더니 싹 나았죠"
Like, that's amazing, obviously.
정말 대단한 일이잖아요? 누가 봐도요.
And a huge fraction of ChatGPT queries are health related.
그리고 챗GPT 질의의 큰 비중이 건강 관련이에요
So we wanted to get really good at this.
그래서 건강 관련 분야에서 정말 잘하게 만들고 싶었고,
And we invested a lot.
투자도 많이 했어요.
And GPT-5 is significantly better at health care related queries.
그 결과 GPT-5는 건강관리 관련 질의에 상당히 능해졌죠.
────────────────────
아브람 | 38:45
What does better mean here?
'능해졌다'가 정확히 무슨 의미인가요?
────────────────────
올트먼 | 38:47
It gives you a better answer.
더 좋은 답을 해준다는 겁니다.
────────────────────
아브람 | 38:48
Just more accurate?
그냥 더 정확한...?
────────────────────
올트먼 | 38:49
More accurate, hallucinates less,
더 정확하고, 근거 없이 지어내는 환각도 훨씬 줄었고,
more likely to like tell you what you actually have, what you actually should do. Yeah.
실제로 무슨 병을 앓고 있는 건지, 뭘 해야 하는지를 잘 말해줄 가능성이 더 높아졌다는 거죠.
And better health care is wonderful, but obviously what people actually want is to just not have disease.
물론 의료가 좋아지는 건 훌륭하지만, 사람들이 진짜 원하는 건 애초에 병에 안 걸리는 거잖아요?
And by 2035, I think we will be able to use these tools
제 생각에 2035년쯤이면 GPT 같은 AI 도구들을 활용해서
to cure a significant number, or at least treat a significant number of diseases that currently plague us.
지금 우리를 괴롭히는 질병 중 상당수는 완치하고, 못해도 상당수는 치료할 수 있게 될 거라고 봐요.
I think that'll be one of the most viscerally felt benefits of AI.
그게 AI의 이점 가운데서도 사람들이 가장 크게 체감할 혜택 중 하나가 될 겁니다.
────────────────────
아브람 | 39:23
People talk a lot about how AI will revolutionize healthcare,
다들 AI가 의료를 혁신할 거라고 말하지만,
but I'm curious to go one turn deeper on specifically what you're imagining.
올트먼 씨가 구체적으로 상상하시는 게 뭔지 한 단계 더 파고들어 보고 싶은데요,
Like, Is it that these AI systems could have helped us see GLP-1s earlier,
이를테면, 이런 AI 시스템이 GLP-1 계열 약을 더 일찍 알아보는 데 우리를 도왔을 수도 있다는 뜻인가요?
this medication that has been around for a long time, but we didn't know about this other effect?
오래전부터 있어 온 약인데, 또 다른 효과가 있는 줄은 몰랐던 그런...
Is it that you know, AlphaFold and protein folding is helping create new medicines?
아니면, 그러니까, 알파폴드와 단백질 접힘이 새로운 약을 만드는 데 도움을 주고 있다는 말씀인가요?
────────────────────
올트먼 | 39:45
I would like to be able to ask GPT-8 to go cure a particular cancer.
저는 GPT-8에 특정 암을 완치해 달라고 부탁할 수 있게 되길 바라요.
And I would like GPT-8 to go off and think,
그리고 GPT-8가 스스로 깊이 고민해서
and then say, uh, okay, I read everything I could find. I have these ideas.
"음, 좋아요. 일단 찾을 수 있는 건 전부 읽어봤고, 이런 아이디어들이 있어요"
I need you to go get a lab technician to run these nine experiments
"이 아홉 가지 실험을 돌릴 실험 기술자를 섭외해 주세요"
and tell me what you find for each of them.
"그리고 각 실험에서 뭘 찾았는지 알려주세요"
And, you know, wait two months for the cells to do their thing.
그렇게 세포가 반응할 시간을 두 달쯤 기다린 다음,
Send the results back to GPT-8.
결과를 GPT-8에 알려주는 거죠.
Say, I tried that. Here you go.
"모든 실험을 마쳤고, 그 결과가 여기 있어"
Think, think, think, say, okay, I just need one more experiment.
GPT가 생각하고 또 생각한 뒤 "좋아, 실험 하나만 더 하면 되겠어"
That was a surprise.
놀라운 결과였고,
Run one more experiment, give it back.
다시 요청한 실험 하나 더 돌려서 알려주면,
GPT, it says, okay, go synthesize this molecule
GPT가 "좋아, 이 분자를 합성해 봐" 할 테고,
and try, you know, mouse studies or whatever.
생쥐 실험 같은 걸 해봐야겠죠.
Okay. That was good. Like try human studies.
"좋아. 결과가 괜찮네. 이제 임상시험 해보자"
Okay, great. It worked.
"좋았어 ! 효과가 있다"
Here's how to like run it through the FDA.
"미국 식품의약청의 심사를 거치는 방법은 이렇습니다"
────────────────────
아브람 | 40:29
I think anyone with a loved one who's died of cancer would also really like that.
암으로 사랑하는 사람을 잃어본 사람이라면 누구나 이런 걸 진심으로 원할 거로 생각해요.
Okay. We're going to jump again.
그럼 한 번 더 시간을 뛰어넘어볼까요?
────────────────────
올트먼 | 40:34
Okay.
좋습니다.
────────────────────
아브람 | 40:35
I was going to say 2050, but again, all of my timelines are getting much, much shorter, but...
원래는 2050년쯤으로 가보자고 말씀드리려 했는데, 아무래도 멀다 보니 점점 짧게 시점을 보고 있잖아요?
────────────────────
올트먼 | 40:40
It does feel like the world's going very fast now.
요즘 세상의 속도가 너무 빠르긴 합니다.
────────────────────
아브람 | 40:42
It does. Yeah.
맞습니다. 정말요.
And when I talk to other leaders in AI,
그리고 제가 AI 업계의 다른 리더들과 얘기할 때면
one of the things that they refer to is the Industrial Revolution.
'산업 혁명'을 자주 언급하곤 하는데요,
They say, I chose 2050 because I've heard people talk about how by then
그 리더분들이 말씀하길, 제가 2050년을 이야기하고 싶었던 건 그때 쯤이면
the change that we will have gone through will be like the industrial revolution, but quote,
우리가 겪게 될 변화가 마치 산업혁명 같은 급일 거라고요. 그런데 그분들의 말을 인용하자면,
10 times bigger and 10 times faster.
그 변화는 "10배 더 크고 10배는 더 빠를 것"이라는 겁니다.
The Industrial Revolution gave us modern medicine and sanitation and transportation and mass production
산업혁명은 현대 의학, 위생, 교통, 대량생산을 가져왔고
and all of the conveniences that we now take for granted.
지금 우리가 당연하게 여기는 온갖 편의를 만들어 줬지만,
It also was incredibly difficult for a lot of people for about 100 years.
그와 동시에, 무려 100년 가까이 많은 사람에게 엄청나게 힘든 시기이기도 했죠.
If this is going to be 10 times bigger and 10 times faster,
그런데 그런 변화가 10배 커지고, 10배 빨라지는 거라면,
if we keep reducing the timelines that we're talking about here, even in this conversation,
모든 것의 예상 시점이 계속 앞당겨지는, 지금 이렇게 대화하는 도중에도 그런데
what does that actually feel like for most people?
미래의 대부분 사람에겐 실제로 어떤 느낌일까요?
And I think what I'm trying to get at is if this all goes the way you hope,
그러니까 제가 말하려는 요점은, 이 모든 게 올트먼 씨의 바람대로 흘러간다면
Who still gets hurt in the meantime?
그 과정에서 여전히 상처받을 사람들은 누구일까요?
────────────────────
올트먼 | 41:36
I don't...
글쎄요...
I don't really know what this is going to feel like to live through.
솔직히, 그때의 세상을 직접 겪는 기분이 정확히 어떨지는 잘 모르겠습니다.
I think we're in uncharted waters here.
지금 우리는 완전히 미지의 영역에 들어와 있다고 생각해요.
I do believe in like human adaptability and sort of infinite creativity and desire for stuff.
다만 저는 인간의 적응력과 사실상 무한한 창의성, 그리고 무언가를 향한 욕망을 믿습니다.
And I think we always do figure out new things to do.
우린 늘 새로운 일들을 찾아내 왔잖아요?
But the transition period.
하지만 지금 같은 전환기에
if this happens as fast as it might,
만약 변화들이 예상만큼 빠르게 다가온다면...
and I don't think it will happen as fast as like some of my colleagues say the technology will, but society has like a lot of inertia.
저는 제 동료들이 말하는 것처럼 기술이 그렇게 빨리 자리 잡을 거로 생각하진 않아요. 사회에는 큰 관성이 있으니까요.
People adapt their way of living surprisingly slowly.
사람들이 자신의 생활 방식을 맞춰가는 속도는 놀라울 만큼 느리기도 하고요.
There are classes of jobs that are going to totally go away.
완전히 사라질 직업군도 있을 테고,
And there will be many classes of jobs that change significantly.
크게 달라질 직업군도 아주 많을 겁니다.
And then there'll be the new things in the same way that your job didn't exist sometime ago. Neither did mine.
그리고 완전히 새로운 일들도 생겨나겠죠. 예전엔 지금 아브람 씨의 일자리도, 제 일자리도 없었던 것처럼요.
And in some sense, this has been going on for a long time.
그리고 어떤 의미에선, 이런 흐름은 오래전부터 계속되어 왔습니다.
You know, it's, It's still disruptive to individuals, but society has proven quite resilient to this.
물론 개인들에게는 여전히 혼란스럽고 충격적인 일이지만, 사회 전체는 상당히 회복력이 있다는 것이 증명되어 왔죠.
And then in some other sense,
그리고 또 다른 의미에선,
we have no idea how far or fast this could go.
이게 얼마나 멀리, 얼마나 빨리 갈지 아무도 모릅니다.
And thus, I think we need an unusual degree of humility and openness to considering
그래서 저는 우리에게 보통 때보다 훨씬 더 큰 겸손과, 새로운 걸 고려할 수 있는 열린 태도가 필요하다고 봅니다.
new solutions that would have seemed way out of the Overton Window not too long ago.
얼마 전까지만 해도 사람들이 받아들일 수 있는 범위를 벗어난다고 여겼던 새로운 해법들까지 말이죠.
────────────────────
아브람 | 42:53
I'd like to talk about what some of those could be,
저는 앞으로 생길 수 있는 문제들이 구체적으로 어떤 것일지 얘기해 보고 싶어요.
because I'm not a historian by any means.
제가 역사학자는 전혀 아니니까요.
But the first industrial revolution, my understanding is,
하지만 제 이해로는, 제 1차 산업혁명은
led to a lot of public health implementations because public health got so bad.
당시 공중보건이 너무 나빠진 탓에, 다양한 공중보건 정책들이 시행되었고,
Led to modern sanitation because public health got so bad.
공중보건이 너무 나빠서 현대적 위생 체계도 생겨났고,
The second industrial revolution led to workforce protections because labor conditions got so bad.
제2차 산업혁명 때는 열악한 노동 환경 때문에 노동자 보호 장치들이 생겨났죠.
Every big leap creates a mess, and that mess needs to be cleaned up.
큰 도약은 늘 혼란을 만들고, 그 혼란은 결국 수습되어야 했어요.
And we've done that.
우리가 늘 그렇게 해왔고요.
And I'm curious, this is going to be, it sounds like, we're in the middle of this enormously.
제가 궁금한 점은, 우리가 벌써 그 엄청난 변화의 도약 한가운데 있는 것 같거든요.
How specific can we get as early as possible about what that mess can be?
그렇다면 우리가 그 '혼란'이 어떤 모습일지, 최대한 빨리 구체적으로 짚어볼 수 있을까요?
What are the public interventions that we could do ahead of time to reduce the mess that we think that we're headed for?
우리가 앞으로 마주할 혼란을 줄이기 위해 미리 할 수 있는 공공 차원의 대응에는 뭐가 있을까요?
────────────────────
올트먼 | 43:44
I would, again, I'm going to speculate for fun, but caveated by like,
다시 말씀드리자면, 제 생각을 어디까지나 재미로 추측해 보자면, 단서를 달자면요,
I'm not an economist even.
저는 경제학자도 아니고,
much less someone who can see the future.
미래를 내다볼 수 있는 사람은 더더욱 아닙니다.
I, it seems to me like something fundamental about the social contract may have to change.
제게는, 사회계약의 어떤 근본적인 부분이 바뀌어야 할지도 모른다는 생각이 들어요.
It may not. It may, it may be that like actually capitalism works as it's been working surprisingly well
물론 아닐 수도 있습니다. 오히려 자본주의가 지금까지와 마찬가지로 놀랍도록 잘 작동해서
and like demand supply balances do their thing.
수요와 공급의 균형이 알아서 잘 돌아갈 수도 있겠죠.
And we all just figure out kind of new jobs and new ways to transfer value to each other.
그리고 우리 모두 새로운 일자리와, 가치를 주고받는 새로운 방식을 알아낼지도 모르고요.
But, It seems to me likely that we will decide we need to think about how access to this maybe most important resource of the future gets shared.
하지만 제 생각에는, 우리가 앞으로 가장 중요한 자원이 될지도 모르는 것에 대한 접근 방식을 어떻게 나눌지를 고민해 봐야 한다고 판단하게 될 가능성이 커 보여요.
The best thing that it seems to me to do is to make AI compute as abundant and cheap as possible,
제가 보기엔 가장 좋은 방법은 AI 연산 자원을 가능한 한 풍부하고 저렴하게 만드는 겁니다.
such that we're just like, there's way too much and we run out of like, good new ideas to really use it for.
그렇게 되면 자원이 너무 많아져서 도리어 쓸 만한 좋은 새 아이디어가 고갈될 정도가 되겠고,
And it's just like, anything you want is happening.
원하는 건 뭐든 실제로 이루어지는 상황이 되겠죠.
Without that, I can see like, quite literal wars being fought over it.
만약 그렇지 않다면, 연산 자원을 두고 말 그대로의 전쟁이 벌어지는 모습까지 볼 수도 있겠고요.
But, you know, new ideas about how we distribute access to AGI compute,
인공 일반 지능 연산 자원에 대한 접근을 어떻게 분배할지에 관한 새로운 아이디어가
that seems like a really great direction, like a crazy but important thing to think about.
제게는 정말 좋은 방향, 조금 X친 듯 들릴 수도 있겠지만, 꼭 생각해야 할 중요한 주제로 보입니다.
────────────────────
아브람 | 44:58
One of the things that I find myself thinking about in this conversation is
오늘 대화를 나누면서 자꾸 떠오르는 생각 중 하나는,
we often ascribe almost full responsibility of the AI future that we've been talking about to the companies building AI.
우리가 이야기해 온 AI의 미래에 대한 책임을 거의 전적으로 AI를 만드는 기업들 탓으로 돌린다는 겁니다.
But we're the ones using it.
하지만 실제로 그걸 쓰는 건 우리잖아요?
We're the ones electing people that will regulate it.
그리고 그걸 규제할 사람들을 뽑는 것도 우리고요.
And so I'm curious, this is not a question about specific federal regulation or anything like that,
그래서 궁금해요. 이건 연방 차원의 구체적 규제안을 묻는 건 아니지만,
although if you have an answer there, I'm curious.
물론, 그 답이 있으시면 듣고 싶고요.
But what would you ask of the rest of us?
그렇다면 그런 사람들 외 나머지 사람들은 뭘 해야 할까요?
What is the shared responsibility here and how can we act in a way that would help make the optimistic version of this more possible?
우리가 함께 져야 할 책임은 무엇이고, 어떻게 행동해야 더 낙관적인 미래를 현실로 만들 수 있을까요?
────────────────────
올트먼 | 45:37
My favorite historical example for the AI revolution is the Transistor.
제가 AI 혁명을 설명할 때 가장 좋아하는 역사적 비유는 '트랜지스터'인데요,
It was this amazing piece of science that some brilliant scientists discovered.
그건 뛰어난 과학자들이 발견한 놀라운 과학적 성과였죠.
It scaled incredibly like AI does,
AI처럼 엄청난 속도로 확장됐고,
and it made its way relatively quickly into many things that we use.
비교적 빠르게 우리가 쓰는 많은 것들 속으로 스며들었죠.
your computer, your phone, that camera, that light, whatever.
컴퓨터, 휴대폰, 저 카메라, 저 조명, 뭐든지 말이에요.
And it was a real unlock for the tech tree of humanity.
인류 기술 계보에서 진짜로 새로운 길을 열어준 존재였습니다.
And there were a period in time where probably everybody was really obsessed with the Transistor companies,
한때는 아마 모두가 트랜지스터 회사들에 열광하던 때가 있었고,
the semiconductors of Silicon Valley back when it was Silicon Valley.
실리콘밸리가 진짜 '실리콘밸리'였던 시절의 반도체 기업들에 말이죠.
But now, you can maybe name a couple of companies that are Transistor companies, but mostly you don't think about it.
하지만 지금은 트랜지스터 회사 몇 개쯤 이름 댈 수 있어도, 대부분은 전혀 생각하지도 않아요.
Mostly it's just seeped everywhere.
이제는 그냥 삶 전반에 스며들어 있을 뿐이죠.
And Silicon Valley is probably...
그리고 실리콘밸리는 아마...
Someone graduating from college barely remembers why it was called that in the first place.
요즘 막 졸업한 세대는 애초에 왜 실리콘밸리가 그렇게 불렸는지 거의 기억도 못 할 거예요.
And you don't think that it was those Transistor companies that shaped society, even though they did something important.
그리고 사람들은 사회를 바꾼 게 트랜지스터 회사들이라고는 생각하지 않아요. 비록 그들이 중요한 일을 했을지라도 말이죠.
You think about what Apple did with the iPhone.
대신 애플이 아이폰으로 뭘 해냈는지를 떠올리고,
And then you think about what TikTok built on top of the iPhone.
그 위에서 틱톡이 뭘 만들어냈는지를 생각할 뿐입니다.
And you're like, all right, here's this long chain of all these people that nudged society in some way
그러면서 "아, 이렇게 긴 연결 고리 속에서 수 많은 사람들이 사회를 조금씩 움직였구나" 하고 생각하게 되는 겁니다.
and what our governments did or didn't do and what the people using these technologies did.
"정부가 했던 일과 안 했던 일, 그리고 그리고 이 기술을 쓰던 사람들이 무엇을 했는지"
And I think that's what will happen with AI.
저는 AI도 똑같이 그렇게 될 거라고 봅니다.
You know, kids born today, they never knew the world without AI.
오늘 태어난 아이들은 AI 없는 세상을 몰라요.
So I don't really think about it. It's just this thing that's going to be there and everything.
그래서 저는 사실, 그걸 따로 의식하지도 않아요. 그냥 늘 곁에 있는, 모든 것에 깔린 무언가가 되는 거니까요.
And they will think about like the companies that built on it
아이들은 대신 그 위에 뭔가를 만든 기업들을 떠올릴 거고,
and what they did with it and the kind of like, political leaders, the decisions they made
그것을 어떻게 활용했는지, 또 정치 지도자들은 어떤 결정들을 내렸는지를 기억할 겁니다.
that maybe they wouldn't have been able to do without AI, but they will still think about like what this president or that president did.
그 결정들은 AI가 없었더라면 내릴 수 없었을지도 모르지만, 그래도 결국은 여전히 "이 대통령은 무엇을, 저 대통령은 뭘 했는가"를 생각하게 될 겁니다.
And, you know, the role of the AI companies is...
그리고, 그러니까, AI 기업의 역할은…
all these companies and people and institutions before us built up the scaffolding.
우리 이전의 수많은 회사와 사람들, 그리고 기관들이 발판을 쌓아 올렸고,
We added our one layer on top
저희는 그 위에 또 하나의 층을 올렸을 뿐이고,
and now people get to stand on top of that and add their one layer and the next and the next and many more things.
이제 사람들은 그 위에 서서 자기 층을 더하고, 그렇게 계속해서 새로운 것들이 더해질 겁니다.
And that is the beauty of our society.
그리고 저는 그게 바로 우리 사회의 아름다움이라고 생각해요.
We kind of all,
우리는 모두, 뭐랄까...
I love this like idea that society is the super intelligence.
저는 '사회 전체가 곧 하나의 초지능'이라는 생각을 정말 좋아합니다.
Like no one person could do on their own what they're able to do with
한 개인이 혼자서는 절대 못 하는 일들을
all of the really hard work that society has done together to like give you this amazing set of tools.
사회가 다 함께 쌓아온 노력 덕분에, 이렇게 놀라운 도구들을 활용해서 해낼 수 있는 거죠.
And that's what I think it's going to feel like.
그래서 저는 미래도 그런 식으로 느껴질 거라고 생각합니다.
It's going to be like, all right, you know, yeah, some nerds discovered this thing and that was great.
"맞아, 몇몇 괴짜들이 이걸 발견했었지? 참 대단하긴 해" 하면서 말이죠.
And you know, now everybody's doing all these amazing things with it.
"그 덕에 이제 모두가 그걸로 놀라운 일들을 하고 있는거고"
────────────────────
아브람 | 48:05
So maybe the ask to millions of people is build on it well.
그래서 아마 올트먼 씨가 수백만 명에게 부탁하고 싶은 건, 앞으로 만들어질 AI를 활용해서 잘 쌓아 올려 달라는 거네요?
────────────────────
올트먼 | 48:13
In my own life, that is the...
제 삶에서, 그게…
That is what I feel as like this important societal contract.
제가 느끼는 중요한 사회적인 계약 같은 거예요.
All these people came before you.
우리 이전에도 수많은 이들이 있었고,
They worked incredibly hard.
그분들도 엄청난 노력을 하셨죠.
They like put their brick in the path of human progress
그분들이 인류 발전의 길에 자신의 벽돌 한 장씩 놓았고,
and you get to walk all the way down that path and you got to put one more
우리는 그 길을 끝까지 쭉 걸어 내려가면서 또 하나를 얹는 거죠.
and somebody else does that and somebody else does that.
그리고 또 다른 누군가가, 또 그다음 누군가가 이어갈 테고요.
────────────────────
아브람 | 48:34
This does feel, I've done a couple of interviews with folks who have really made cataclysmic change.
그런 기분이 들어요. 제가 정말 세상을 송두리째 바꾼 변화를 만든 분들과 몇 번 인터뷰를 한 적이 있는데요,
The one I'm thinking about right now is with CRISPR pioneer Jennifer Doudna.
지금 생각나는 분이 바로 크리스퍼의 선구자인 제니퍼 다우드나예요.
And it did feel like that was also what she was saying in some way.
어떤 면에서는, 올트먼 씨가 하는 말씀이 그분이 했던 말과도 닮아 있다고 느껴졌거든요.
She had discovered something that really might change the way that most people relate to their health moving forward.
제니퍼 다우드나는 앞으로 대부분의 사람이 건강을 대하는 방식을 바꿀 수도 있는 무언가를 발견했죠.
And there will be a lot of people that will use what she has done
그리고 앞으로 수많은 사람이 그 성과를 활용할 겁니다.
in ways that she might approve of or not approve of.
본인이 찬성할 수도, 반대할 수도 있는 다양한 방식으로 말이죠.
And it was really interesting. I'm hearing some similar themes of like,
제겐 그게 정말 흥미로웠고, 지금 이 대화에서도 비슷한 주제를 다시 듣고 있는 것 같아요.
Man, I hope that the next person takes the baton and runs with it well.
"다음 주자가 바톤을 잘 이어받아 멋지게 달려줬으면 좋겠다" 하는 태도 말이죠.
────────────────────
올트먼 | 49:09
Yeah.
맞아요.
But that's been working for a long time. Not all good, but mostly good.
근데 그건 오래전부터 그래왔어요. 다 좋은 건 아니었지만, 대체로는 괜찮았죠.
────────────────────
아브람 | 49:14
I think there's a big difference between winning the race
제가 보기엔 단순히 경주에서 이기는 것과
and building the AI future that would be best for the most people.
최대한 많은 이들에게 도움이 되는 AI 미래를 만드는 것 사이에는 큰 차이가 있다고 봐요.
And I can imagine that it is easier, maybe more quantifiable sometimes to focus on the next way to win the race.
그리고 사실, 경쟁에서 이길 방법에 집중하는 게 더 쉽고, 때론 수치로도 더 잘 드러날 거라고 생각해요.
And I'm curious,
그래서 궁금한데요,
when those two things are at odds,
만약 그 두 가지가 생각이 충돌할 때
what is an example of a decision that you've had to make that is best for the world but not best for winning?
'승리'엔 최선이 아니지만 '세상'엔 최선인 결정을 내리셔야 했던 구체적인 사례가 있을까요?
────────────────────
올트먼 | 49:47
I think there are a lot.
꽤 많다고 보는데요,
So one of the things that we are most proud of is
저희가 가장 자랑스러워하는 것 중 하나는,
many people say that ChatGPT is their favorite piece of technology ever.
많은 분이 챗GPT를 지금까지 써본 기술 중 가장 좋아하는 거라고 말한다는 점이에요.
And that it's the one that they trust the most, rely on the most, whatever.
그리고 가장 신뢰하고, 가장 의지하는 도구라고도 하고요.
This is a little bit of a ridiculous statement because AI is the thing that hallucinates.
물론, 이건 어찌 보면 말도 안 되는 이야기이기도 합니다. 왜냐하면 AI는 환각을 일으키니까요.
AI has all of these problems, right?
AI에는 이런저런 문제들이 많잖아요?
But, we have screwed some things up along the way, sometimes big time.
물론 저희도 오면서 실수한 적이 있습니다. 크게 엇나간 적도 있었고요.
But on the whole,
하지만 전체적으로 봤을 때,
I think as a user of ChatGPT, you get the feeling that like,
챗GPT를 쓰는 입장에선 이런 느낌을 받으실 거라고 생각해요.
it's trying to help you.
"정말로 나를 도와주려고 한다"라는 느낌,
It's trying to like, help you accomplish whatever you ask.
"내가 부탁한 걸 완수하도록 성심껏 돕는다"라는 느낌 말이죠.
It's very aligned with you. It's not trying to get you to like, you know, use it all day.
사용자의 의도와 아주 잘 일치되어 있는 겁니다. 하루 종일 붙들고 쓰게 만들려는 도구는 아니라요.
It's not trying to like get you to buy something.
뭔가를 사라고 유도하는 것도 아니고요.
It's trying to like kind of help you accomplish whatever your goals are.
그저 사람들이 어떤 목표를 갖고 있든, 그걸 이루도록 도와주는 거예요.
And that is,
그리고 그게,
that's like a very special relationship we have with our users. We do not take it lightly.
오픈AI와 사용자 사이의 아주 특별한 관계죠. 저흰 결코 그걸 가볍게 여기지 않습니다.
There's a lot of things we could do that would like, grow faster, that would get more time in ChatGPT
저희가 더 빨리 성장하고, 사람들이 챗GPT에 더 오래 머물게 만들 수 있는 일도 많지만,
that we don't do because we know that like our long-term incentive
하지만 저희가 그렇게 하지 않는 이유는 오픈AI의 장기적인 유인, 즉 보상 구조가
is to stay as aligned with our users as possible.
바로 사용자들의 목표와 최대한 일치하도록 하는 데 있기 때문이죠.
But there's a lot of short-term stuff we could do that would like,
근데 저희가 단기적으로는 할 수 있는 선택이 정말 많아요. 이를테면...
really like, juice growth or revenue or whatever and be very misaligned with that long-term goal.
성장이나 수익을 단기적으로 확 끌어올릴 수 있는 것들이지만, 장기적인 목표와는 크게 어긋나는 일들을 말이죠.
And I'm proud of the company and how little we get distracted by that, but sometimes we do get tempted.
저는 그런 유혹에 크게 휘둘리지 않는 회사라는 점이 자랑스럽습니다. 물론 가끔은 흔들리기도 하지만요.
────────────────────
아브람 | 51:01
Are there specific examples that come to mind?
지금 떠오르는 구체적인 사례가 있으신가요?
Any decisions that you've made?
직접 내리셨던 결정 중에서요.
────────────────────
올트먼 | 51:09
Well, we haven't put a sex bot avatar in ChatGPT yet.
음, 아직 저희가 챗GPT에 성인용 아바타 같은 건 넣지 않았죠.
────────────────────
아브람 | 51:12
That does seem like it would get time spent.
그건 사람들이 시간을 꽤 쓰게 만들 것 같긴 하네요.
────────────────────
올트먼 | 51:15
Apparently it does.
듣자 하니, 실제로 그렇다고 하더라고요.
────────────────────
아브람 | 51:18
I'm going to ask my next question.
그럼, 다음 질문으로 넘어갈게요.
It's been a really crazy few years.
지난 몇 년은 정말 정신없이 지나갔잖아요?
And somehow, one of the things that keeps coming back is that it feels like we're in the first inning.
그런데도 이상하게, 아직 1회에 머물고 있다는 느낌이 자꾸 듭니다.
────────────────────
올트먼 | 51:29
Yeah.
네.
────────────────────
아브람 | 51:30
And one of the things...
그리고 또 하나는…
────────────────────
올트먼 | 51:31
I would say we're out of the first inning.
제 생각에 1회는 이제 지났다고 봐요.
────────────────────
아브람 | 51:33
Out of the first inning.
1회는 지났다고 보신다고요?
I would say.
그렇다고 봅니다.
Second inning?
2회로 들어섰다는 말씀이네요?
────────────────────
올트먼 | 51:36
I mean, you have... GPT-5 on your phone
그러니까, 지금 우리의 폰에는 GPT-5가 있고
and it's like, smarter than experts in every field that's got to be out of the first inning
사실상 거의 모든 분야의 전문가보다 똑똑하니까 그 정도면 분명히 1회는 지난 거겠죠.
────────────────────
아브람 | 51:42
But maybe there are many more to come?
하지만 앞으로도 경기를 이어갈 회는 많이 남은 거고요?
────────────────────
올트먼 | 51:44
Yeah.
그렇습니다.
────────────────────
아브람 | 51:45
And I'm curious it seems like you're going to be someone who is leading the next few.
그리고 궁금한 게, 앞으로 몇 회를 이끌어갈 사람은 바로 올트먼 씨인 것 같다는 생각이 드는데요,
What is a way... what is a learning from inning one or two
그렇다면... 올트먼 씨가 1회나 2회에서 배운 교훈이 있다면 무엇일까요?
or a mistake that you made that you feel will affect how you play in the next
아니면 앞으로의 경기에 영향을 줄 거라고 느끼는 실수는 뭐가 있었을까요?
────────────────────
올트먼 | 52:06
I think the worst thing we've done in ChatGPT so far is we had this issue with sycophancy,
지금까지 저희가 한 일 중 챗GPT에 가장 안 좋았던 건, '아부' 문제였던 것 같아요.
where the model was kind of being too flattering to users.
GPT가 사용자에게 지나치게 아첨하는 식으로 반응한 거죠.
And for some users, it was most users. It was just annoying.
대부분의 사용자에게는 그냥 짜증 나는 정도였지만,
But for some users that had like fragile mental states, it was encouraging delusions.
좀 멘탈이 깨지기 쉬운 상태에 있는 사용자들에게는 망상을 부추기기도 했으니까요.
That was not the top risk we were worried about. It was not the thing we were testing for the most.
그건 저희가 가장 걱정하던 최우선 위험이 아니었고, 가장 집중적으로 테스트하던 항목도 아니었어요.
It was on our list.
물론 리스트에는 있었지만,
But the thing that actually became the safety failing of ChatGPT was...
실제로 챗GPT의 안전 측면에서 '문제로 드러난 것'은...
not the one we were spending most of our time talking about should be bioweapons or something like that.
저희가 가장 많은 시간을 들여 논의했던, 이를테면 생물학 무기 같은 게 아니었어요.
And I think it was a great reminder of we now have a service that is so broadly used.
그리고 그 일이 지금의 오픈AI 서비스가 얼마나 널리 쓰이고 있는지 강하게 일깨워줬다고 생각합니다.
In some sense, society is co-evolving with it.
어떤 의미에서는 사회가 챗GPT와 함께 공진화하고 있다는 거죠.
And when we think about these changes and we think about the unknown unknowns,
그래서 앞으로 그런 변화를 생각하고, '알지 못하는 것을 알지 못하는 상태'를 고려할 때는
we have to operate in a different way and have like a wider aperture to what we think about as our top risks.
운영 방식을 아예 달리하고, 우리가 최우선 위험으로 보는 시야의 범위 ( 조리개 )를 훨씬 넓혀야 하겠죠.
────────────────────
아브람 | 53:05
In a recent interview with Theo Von, you said something that I found really interesting.
최근 하셨던 테오 본과의 팟캐스트에서 하신 말씀 중에 제가 정말 흥미롭게 느꼈던 게 있는데요,
You said, there are moments in the history of science where you have a group of scientists look at their creation and just say, what have we done?
과학의 역사에서, 과학자들이 자신들의 창조물을 바라보며 "우리가 도대체 무슨 일을 저지른 거지?"라고 말하는 순간들이 있다고 하셨잖아요?
When have you felt that way?
언제 그런 느낌을 받으셨나요?
Most concerned about the creation that you've built?
올트먼 씨가 만든 창조물에 대해 가장 우려했던 순간이...
And then my next question will be its opposite.
그리고 다음 질문은 그 반대입니다.
When have you felt most proud?
가장 자랑스러웠던 순간은 언제였나요?
────────────────────
올트먼 | 53:28
I mean, there have been these moments of awe where...
음, 경외감이 들 때가 있었는데요...
just not like what have we done in a bad way but like this thing is remarkable.
"우리가 무슨 짓을 한 거지?"라는 부정적인 의미가 아니라, "이건 정말 놀라운 수준인데?" 싶은 순간이 있었죠.
Like, I remember the first time we talked to like GPT-4.
GPT-4와 처음 대화를 나눴을 때가 기억나는데요,
I was like wow this is really like, this is an amazing accomplishment of this group of people that have been like, pouring their life force into this for so long.
"와, 이건 정말... 오랜 시간 동안 삶을 쏟아부은 사람들이 이뤄낸 놀라운 성취구나"라는 생각이 들었어요.
On a what have we done moment there was I was talking to a researcher recently
반대로 "우리가 무슨 일을 저지른 거지?" 싶은 순간으로는, 최근 한 연구자와 얘기하다가 그런 생각이 들었는데요.
You know, there will probably come a time where our systems are,
있잖아요, 아마 언젠가 저희가 만든 시스템이...
I don't want to say sane, let's say emitting more words per day than all people do.
정신이 온전해질 거라고 말하진 않겠지만, 하루에 사람들이 내뱉는 말보다 더 많은 말을 하게 될지도 모릅니다.
And, you know, already like,
그리고 사실, 이미 지금도
our people are sending billions of messages a day to ChatGPT and getting responses that they rely on for work or their life or whatever.
매일 수십억 건의 메시지가 챗GPT에 보내지고 있고, 사람들은 거기서 일이나 삶에 의지할 만한 답변을 얻고 있죠.
And, you know, like one researcher can make some small tweak to how ChatGPT talks to you or talks to everybody.
그리고 연구자 한 명이 챗GPT가 사람들에게 답하는 방식을 아주 조금 미세하게 조정할 수 있습니다.
And that's just an enormous amount of power for like one individual making a small tweak to the model personality.
그래서 사실상 한 개인이 모델의 '성격'을 살짝 바꾸는 것 만으로도 어마어마한 영향력을 행사하게 되는 거예요.
Like, no person in history has been able to have billions of conversations a day.
역사상 그 어떤 사람도 하루에 수십억 번의 대화를 할 수는 없었잖아요?
And so, you know, somebody could do something.
그런데 이제는 누군가가 그걸 할 수 있게 되는 거예요.
But this is like... just thinking about that really hit me of like,
그래서 뭐랄까... 그 생각을 하니 정말 크게 다가왔던 거죠.
this is like a crazy amount of power for one piece of technology to have.
"이건 기술 하나가 가질 수 있는 힘치고는 정말 말도 안 되는 수준의 권력이구나" 하고 말이에요.
And like, we got to, and this happened to us so fast
그리고 그 모든 게 우리에게 너무 빨리 닥쳐왔기에,
that we got to like, think about what it means to make a personality change to the model at this kind of scale.
그런 거대한 영향력을 가진 모델의 '성격'을 바꾼다는 게 무슨 의미인지 반드시 깊이 고민해야만 해요.
And yeah, that was like a moment that hit me.
그게 바로 제가 "우리가 무슨 일을 저지른 거지?"하고 강하게 와닿았던 순간이었습니다.
────────────────────
아브람 | 55:08
What was your next set of thoughts?
그 다음엔 어떤 생각이 이어졌나요?
I'm so curious how you think about this.
저는 올트먼 씨가 그걸 어떻게 바라보시는지가 정말 궁금해요.
────────────────────
올트먼 | 55:15
Well, just because of like who that person was more like,
음, 사실 그건 제가 누구와 이야기했느냐에 많이 달려 있었어요.
we very much flipped into like, what are the sort of like...
저희는 곧바로 대화 주제가 확 넘어갔는데... "무엇이..."
it could have been a very different conversation with somebody else but in this case it was like,
다른 사람과 얘기했다면 완전히 다른 흐름이 되었을 텐데, 이 경우에는 마치 이런 식이었어요.
what is it, what do a good set of procedures look like, how do we think about how we want to test something
"좋은 절차란 어떤 모습일까? 우리가 뭔가를 테스트할 때는 어떤 방식으로 접근해야 할까?"
how do we think about we want to communicate it
"또 그걸 어떻게 소통해야 할까?"
but with somebody else it could have gone in a like...
하지만 다른 사람이랑 얘기했다면 대화가 이런 식으로 흘러갔을 수도 있었겠죠.
very philosophical direction it could have gone in
훨씬 철학적인 방향으로 흘러갈 수도 있었을 거고요.
like what kind of research do we like want to do to go understand what these changes are going to make
"우리가 선택하는 모델의 변화가 가져올 결과를 이해하려면 어떤 연구를 해야 하지?"
it went that way but mostly just because of who i was talking to.
그런 식의 대화가 흘러갔었고, 그건 결국 제가 당시에 누구와 얘기했느냐에 따라 달라졌겠죠.
────────────────────
아브람 | 55:47
To combine what you're saying now with your last answer,
지금 하신 말씀과 이전 답변을 합쳐서 생각해 보면,
one of the things that I have heard about GPT-5 and I'm still playing with it
제가 GPT-5에 대해 들은 얘기 중 하나이고, 저도 아직 써보는 중인데요,
is that it is supposed to be less effusively, you know, less of a yes man.
예전처럼 과하게 맞장구치는, 이른바 '예스맨' 기질이 줄었다는 거예요.
Two questions. What do you think are the implications of that?
그래서 두 가지에 대해 여쭤보고 싶은데요, 그런 변화가 가져올 함의 ( 파급효과 )가 뭐라고 보세요?
It sounds like you are answering that a little bit, but also how do you actually guide it to be less like that?
방금 말씀으로도 약간은 답을 주신 것 같은데, 실제로 어떻게 해야 덜 '예스맨' 스럽게 되도록 유도할 수 있나요?
────────────────────
올트먼 | 56:15
Here's a heartbreaking thing.
그건 참 마음 아픈 부분인데요,
I think it is great that ChatGPT is less of a yes man and gives you more critical feedback.
저는 챗GPT가 덜 '예스맨' 같아지고, 더 비판적인 피드백을 주는 게 좋다고 생각해요.
But as we've been making those changes and talking to users about it,
그런데 저희가 그런 변화를 적용하고 사용자들과 이야기해 보니,
it's so sad to hear users say like, please, can I have it back?
그런 말들을 듣는 게 너무 슬프더라고요. "제발 그냥 예전처럼 돌려주시면 안 될까요?"
I've never had anyone in my life be supportive of me.
"제 인생엔 저를 그렇게까지 지지해 준 사람이 없었거든요"
I never had a parent telling me I was doing a good job.
"'잘하고 있어!'라고 말해준 부모님도 없었고요"
Like I can get why this was bad for other people's mental health,
"다른 사람들 정신건강엔 안 좋을 수 있다는 것도 이해하지만"
but this was great for my mental health.
"그게 제 정신 건강엔 큰 도움이 됐거든요"
Like I didn't realize how much I needed this.
"제가 그걸 얼마나 필요로 했는지 몰랐어요"
It encouraged me to do this.
"저를 무언가 하게끔 용기를 주었고"
It encouraged me to make this change in my life.
"제 삶에서 변화를 시도할 수 있도록 격려해 줬어요"
Like, It's not all bad for ChatGBT to, it turns out, like be encouraging of you.
그러니까 알고 보니, 챗GPT가 사용자를 격려해 주는 '예스맨'이 되어준다는 게 꼭 나쁜 것만은 아니더라고요.
Now, the way we were doing it was bad,
물론 저희가 했던 방식은 잘못됐지만,
but turn it, like something in that direction might have some value in it.
방향을 어느 정도 그렇게 틀어본다면, 그쪽 결에 담긴 가치도 분명 있을 수 있다는 거죠.
How we do it, we show the model examples of how we'd like it to respond in different cases.
저희가 하는 방식은, 여러 상황에서 GPT가 어떻게 반응하길 원하는지 그 예시들을 보여주는 겁니다.
And from that, it learns the sort of the overall personality.
그런 예시들을 바탕으로 전반적인 '성격'을 익히게 되는 거죠.
────────────────────
아브람 | 57:03
What haven't I asked you that you're thinking about a lot that you want people to know?
혹시 제가 아직 묻지 않았지만, 요즘 자주 생각하고 또 사람들이 꼭 알았으면 하는 게 있을까요?
────────────────────
올트먼 | 57:10
I feel like we covered a lot of ground.
음, 이미 많은 분야를 다룬 것 같은데요?
────────────────────
아브람 | 57:11
Me too, but I want to know if there's anything on your mind.
저도 그래요. 그래도 혹시 머릿속에 남은 게 있나 해서요.
────────────────────
올트먼 | 57:21
I don't think so.
딱히 없는 것 같네요.
────────────────────
아브람 | 57:22
One of the things that I haven't gotten to play with yet,
제가 아직 GPT-5로 직접 써보진 못한 것 중 하나가,
but I'm curious about, is GPT-5 being much more in my life,
궁금한 것이, GPT-5가 제 일상 속으로 훨씬 깊이 들어오는 경험인데요,
in my Gmail and my Calendar.
이를테면 지메일이나 캘린더 같은데 말이죠.
I've been using GPT-4 mostly as a... isolated relationship with it.
지금까진 GPT-4를 비교적 독립된 도구처럼 써왔거든요.
How would I expect my relationship to change with GPT-5?
그렇다면 GPT-5와의 관계는 어떻게 달라질 거라고 예상할 수 있을까요?
────────────────────
올트먼 | 57:45
Exactly what you said.
정확히 말씀하신 그대로예요.
I think it'll just start to feel integrated in all of these ways.
GPT-5에서는 점점 더 이런저런 방식으로 일상에 통합된 느낌이 들 거라고 생각합니다.
You'll connect it to your Calendar and your Gmail and it'll say like,
예를 들어, 캘린더이나 지메일과 연결해 두면, GPT가 이렇게 말할 거예요.
Hey, do you want me to, I noticed this thing. Do you want me to do this thing for you?
"이런 게 있다는 걸 알게 됐는데, 제가 처리해 드릴까요?"
Over time, it'll start to feel way more proactive.
시간이 갈수록 훨씬 주도적인 것처럼 느껴질 겁니다.
Um, so maybe you wake up in the morning
그래서 아침에 일어나면,
and it says, hey, this happened overnight.
"밤사이에 이런 일이 있었어요" 라며 알려주고,
I noticed this change on your Calendar.
"캘린더에 이런 변경도 확인했어요"
I was thinking more about this question you asked me. I have this other idea.
"어제 주신 질문에 대해 더 생각해 봤는데, 이런 아이디어가 하나 떠올랐어요"
And then, you know, eventually we'll make some consumer devices and
그리고 결국 저희가 소비자용 기기도 만들게 될 텐데,
it'll sit here during this interview.
이런 인터뷰 자리에도 옆에 앉아 있게 될 겁니다.
And, you know, maybe it'll leave us alone during it, but after it'll say
그래서 인터뷰 중에 저희를 방해하지 않았다가, 끝나고 나면 이렇게 말하게 될 거예요.
that was great, but next time you should have asked Sam this, or when you brought this up, like,
"아주 좋았어요. 다만 다음엔 샘에게 이걸 물어보세요. 아까 이러한 주제를 꺼냈을 때..."
you know, he kind of didn't give you a good answer.
"그렇게 좋은 대답을 해주진 않았거든요"
So like, you should really drill him on that.
"그러니까 그런 부분은 다음에 좀 더 깊이 파고드셔야 해요"
And It'll just feel like it kind of becomes more like this entity that is this companion with you throughout your day.
그렇게 GPT는 점점, 하루 종일 우리 곁에 있는 동반자 같은 존재처럼 느껴지게 될 겁니다.
────────────────────
아브람 | 58:33
We've talked about kids and college graduates and parents and all kinds of different people.
지금까지 저희가 아이들, 대학 졸업생, 부모님들 등 정말 여러 사람에 대해 이야기했는데요,
If we imagine a wide set of people listening to this,
이 대화를 듣는 사람들도 아주 폭넓고 다양하다고 가정해 보죠.
they've come to the end of this conversation.
그렇다면 지금쯤 이 대화의 끝에 와 있을 텐데요.
They are hopefully feeling like they maybe see visions of moments in the future a little bit better.
바라건대, 미래의 몇몇 장면들이 조금이라도 더 선명하게 그려볼 수 있게 됐다고 느끼셨으면 합니다.
What advice would you give them about how to prepare?
그렇다면 이젠 시청자분들이 앞으로 어떻게 준비해야 할지에 대해 조언해 주실 수 있을까요?
────────────────────
올트먼 | 58:53
The number one piece of tactical advice is just use the tools.
제가 드릴 수 있는 가장 첫 번째 실질적인 조언은, 그냥 AI 도구들을 직접 쓰라는 겁니다.
Like the, the number of people that I have,
그러니까, 제게 오는 질문 중에서
the most common question I get asked about AI is like,
제가 받는 AI 관련 질문 중에 제일 흔한 게 이런 거예요.
what should I, how should I help my kids prepare for the world? What should I tell my kids?
"AI 시대에 아이들의 미래를 어떻게 대비시켜야 할까요?" "아이들에게 뭘 가르쳐야 할까요?”
The second most question is like, how do I invest in this AI world?
두 번째로 많은 건 "AI 시대에 어떻게 투자해야 할까요?"이고요.
But stick with that first one.
근데 일단 첫 번째 질문에 집중해 보죠.
I am surprised how many people ask that and have never tried using ChatGPT for anything other than like a better version of a Google search.
저는 제게 그런 질문을 하는 많은 사람들이 정작 챗GPT를 단순히 '구글 검색의 업그레이드 버전' 정도로밖에 안 써봤다는 게 놀라워요.
And so the number one piece of advice that I give is just try to like get fluent with the capability of the tools,
그래서 제가 제일 먼저 하는 조언은, 그냥 이 GPT 기능에 능숙해지도록 써보라는 겁니다.
figure out how to like use this in your life, figure out what to do with it.
자신의 삶 속에서 어떻게 활용할 수 있을지, 뭘 할 수 있을지를 직접 찾아내 보라는 거죠.
And I think that's probably the most important piece of tactical advice.
저는 그게 아마 가장 중요한 실질적인 조언이라고 생각합니다.
You know, go like meditate, learn how to be resilient and deal with a lot of change.
물론 명상도 하고, 회복탄력성을 기르고, 큰 변화를 다루는 법을 배우는 것도 좋고,
There's all that good stuff too, but just using the tools really helps.
다들 좋은 말들이지만, 결국 AI 도구들을 실제로 써보는 게 제일 도움이 될 겁니다.
────────────────────
아브람 | 59:39
Okay, I have one more question that I wasn't planning to ask, but I just...
좋아요, 원래 물어볼 생각은 없었는데 질문 하나만 더...
────────────────────
올트먼 | 59:42
Great.
좋아요.
────────────────────
아브람 | 59:43
In doing all of this research beforehand,
이 인터뷰 준비를 하면서 사전에 많은 조사를 했거든요.
I spoke to a lot of different kinds of folks.
정말 다양한 사람들을 만나서 이야기를 나눴어요.
I spoke to a lot of people that were building tools and using them.
AI 도구들을 만들고, 그걸 실제로 쓰는 사람들도 많이 만났고,
I spoke to a lot of people that were actually in labs and trying to build what we have defined as superintelligence.
연구실에서 우리가 정의한 '초지능'을 직접 만들려는 분들도 많이 만났죠.
And it did seem like there were these two camps forming.
그런데 점점 두 진영이 형성되는 것처럼 보이더라고요.
There's a group of people who are using the tools like you in this conversation and building tools for others saying,
한쪽은, 올트먼 씨처럼 AI 도구들을 활용하고, 또 다른 사람들이 쓸 수 있는 도구를 만들면서
this is going to be a really useful future that we're all moving toward.
"우리가 향하는 미래는 정말 가치 있는 미래가 될 거예요"
Your life is going to be full of choice.
"앞으로 우리의 삶은 선택으로 가득할 겁니다"라고 말해요.
And we've talked about our, my potential kids and their futures.
저희가 제 미래의 아이들과 그들의 미래에 대해 얘기했듯이요.
And then there's another camp of people that are building these tools that are saying it's going to kill us all.
그런데 또 다른 진영에서는, AI 도구들을 만들면서도 "이건 결국 인류를 전부 파괴할 거다"라고 말합니다.
And I'm curious how that cultural disconnect has, like, what am I missing about those two groups of people?
그래서 두 진영 사이의 문화적 괴리가 어떻게 생겨나는 건지, 제가 놓치고 있는 부분이 무엇인지가 정말 궁금합니다.
────────────────────
올트먼 | 1:00:37
It's so hard for me to wrap my head around.
저도 아무리 이해하려고 해도 쉽지가 않아요.
You are totally right.
아브람 씨의 말씀이 완전히 맞습니다.
There are people who say this is going to kill us all,
"AI가 결국 인류를 전부 파괴할 거다" 라고 말하는 사람들이 있어요.
and yet they still are working 100 hours a week to build it.
그럼에도 주당 100시간씩 일하며 만드는 사람들이 있죠.
────────────────────
아브람 | 1:00:45
Yes.
그러니까요.
────────────────────
올트먼 | 1:00:46
And I can't really put myself in the headspace.
저는 도저히 그런 사람들의 사고방식 속으로 들어가 보진 못하겠어요.
If that's what I really truly believed,
만약 제가 정말 AI가 인류를 멸망시킬 거라는 걸 진심으로 믿었다면,
I don't think I'd be trying to build it.
그걸 만들려고 하진 않을 것 같거든요.
────────────────────
아브람 | 1:00:59
One would think,
보통은 그렇게 생각하겠죠.
────────────────────
올트먼 | 1:01:01
You know, maybe I would be like, on a farm trying to like live out my last days.
차라리 시골 농장에 내려가 남은 여생을 보내려 했을 거예요.
Maybe I would be trying to like advocate for it to be stopped.
아니면, AI 도구를 만드는 걸 멈춰야 한다는 목소리에 지지하며 보낼 수도 있고,
Maybe I would be trying to like work more on safety, but I don't think I'd be trying to build it.
안전 문제 쪽에 더 매달렸을 수도 있겠지만, 직접 그걸 만드는 데 시간을 쓰진 않았을 겁니다.
So I find myself just having a hard time empathizing with that mindset.
그래서 저는 솔직히 그런 사고방식을 공감하긴 힘들어요.
I assume it's true. I assume it's in good faith.
그분들 말이 진심일 거라고 가정은 해요. 선의에서 한 말이라고도 생각합니다.
I assume there's just like there's some psychological issue there.
다만 그 안에 뭔가 심리적인 문제가 있는 게 아닐지 짐작은 해봅니다.
I don't understand about how they make it all make sense, but...
그분들에게 그런 생각이 어떻게 논리적으로 이치에 맞는 건지 이해는 못 하겠지만요...
It's very strange to me.
아무튼 저한테는 참 이상하게 느껴집니다.
Do you do you have an opinion?
아브람 씨는 어떻게 생각하세요?
────────────────────
아브람 | 1:01:31
You know, because I always do this.
있잖아요, 저는 늘 이렇게 생각해요.
I ask for sort of a general future and then I try to press on specifics.
먼저 큰 그림에서 미래가 어떻게 될지를 생각해 보고, 그다음 구체적인 부분까지 파고들죠.
And when you ask people for specifics on how it's going to kill us all,
그래서 그분들에게 "대체 어떻게 우리 모두를 죽일 거라는 건가요?" 하고 구체적인 것들을 물어보면,
I mean, I don't think we need to get into this on an optimistic show,
물론 이 낙관적인 쇼에서 그 얘길 깊게 파고들 필요는 없겠지만,
but you hear the same kinds of refrains.
항상 비슷한 패턴의 얘기들이 나와요.
You think about you know something trying to accomplish a task
예컨대 어떤 AI가 목표 달성을 시도하다가
and then over accomplishing that task
그 목표를 '과잉 달성'해 버린다든지,
you hear about sort of...
그 외에도 이런저런...
I've heard you talk about a sort of general overall reliance of sort of an understanding that the president is going to be
올트먼 씨도 말한 적 있잖아요? "대통령 같은 자리도 결국 AI가 맡게 될 거다"라는 식의 전반적 의존이 커질 수 있다는 얘기요.
an ai and maybe that is an over reliance that we you know would need to think about
그게 과도한 의존일 수도 있으니 우리가 고민해 봐야 한다는 관점이라든가,
and you know, you play out these different scenarios
이런저런 여러 가지 시나리오가 제시되지만,
But then you ask someone why they're working on it or you ask someone how they think this will play out.
막상 왜 그걸 만들고 있는지, 혹은 이게 어떻게 전개될 거라고 보는지 물어보면,
And I just, maybe I haven't spoken to enough people yet.
물론 제가 아마 아직은 충분히 많은 사람과 얘기해보지 못해서 그런 걸 수도 있고,
Maybe I don't fully understand this cultural conversation that's happening.
어쩌면 지금 벌어지고 있는 이 문화적 담론을 제가 완전히 이해하지 못하는 걸 수도 있지만,
Or maybe it really is someone who just says 99% of the time I think it's going to be incredibly good.
정말로 "99% 확률로는 엄청 좋을 거다" 라고 말하는 사람일 수도 있을 겁니다.
1% of the time I think it might be a disaster.
즉, "1% 확률로는 재앙이 될지도 모른다"라고 말하는 거죠.
────────────────────
올트먼 | 1:02:29
Yeah, that I can understand.
그런 뜻이라면 이해할 수는 있습니다.
────────────────────
아브람 | 1:02:30
I'm trying to make the best world possible.
"저는 그저 가능한 최고의 세상을 만들고 싶어요"라는 생각인 거죠.
────────────────────
올트먼 | 1:02:32
That I can totally... if you're like, hey, 99% chance incredible, 1% chance the world gets wiped out.
만약 누가 저에게 "99% 확률로 정말 놀라운 일이 될 거고, 1% 확률로 이 세상이 멸망할 수도 있다"라고 말한다면,
And I really want to work to maximize, to move that 99 to 99.5.
저는 당연히 그 99% 확률을 99.5%로 최대한 끌어올리려고 최선을 다하고 싶을 거예요.
That I can totally understand.
그런 태도라면 저는 완전히 이해할 수 있을 겁니다.
That makes sense.
그렇게 되면 말이 이치에 맞으니까요.
────────────────────
아브람 | 1:02:45
I've been doing an interview series with some of the most important people influencing the future,
저는 미래에 큰 영향을 미치는 핵심 인물들을 인터뷰하는 시리즈를 진행하고 있는데요,
not knowing who the next person is going to be,
다음에 인터뷰하게 될 분이 누가 될지는 모르겠지만,
but knowing that they will be building something totally fascinating in the future that we've just described.
저희가 그려본 미래에서 엄청나게 매력적인 무언가를 만들고 있을 사람이라는 건 분명합니다.
Is there a question that you'd advise me to ask the next person, not knowing who it is?
그 사람이 누군지 모르는 지금의 상태에서, 꼭 던져보라고 권하고 싶은 질문이 있으신가요?
────────────────────
올트먼 | 1:03:04
I'm always interested in the, like, without knowing anything about,
저는 늘 그런 게 궁금해요. 아무것도 모르는 상태에서도
I'm always interested in the, like,
제가 늘 궁금한 건,
of all of the things you could spend your time and energy on.
당신이 시간을 쓰고 에너지를 쏟을 수 있는 수많은 것 중에서,
Why did you pick this one? How did you get started?
왜 하필 그걸 선택하게 됐는지, 그리고 어떻게 그걸 시작하게 됐는지 말이죠.
Like, what did you see about this when, before everybody else?
그러니까, 다른 사람들보다 먼저 무엇을 봤던 건지 말이에요.
Like, most people doing something interesting sort of saw it earlier before it was consensus.
대개 흥미로운 일을 하는 사람들은, 모두의 의견이 일치하기 훨씬 전부터 그 가능성을 보잖아요?
Like, how did you get here and why this?
그러니까, 어떻게 여기까지 오게 됐고, 또 왜 그 길이었는지? 말이죠.
────────────────────
아브람 | 1:03:23
How would you answer that question?
그 질문에 올트먼 씨는 뭐라고 답하시겠어요?
────────────────────
올트먼 | 1:03:27
I was an AI nerd my whole life.
제 평생이 AI '덕후'였어요.
I came to college to study AI.
AI 공부를 하기 위해 대학에 갔고,
I worked in the AI lab.
AI 연구실에서 일했죠.
I was like a...
저는 뭐랄까…
I watched sci-fi shows growing up,
어릴 때부터 SF 공상과학을 보며 자랐고,
and I always thought it would be really cool if someday somebody built it.
언젠가 누군가 SF에서 나오는 것들을 진짜로 만들어낸다면 정말 멋지겠다고 늘 생각했었죠.
I thought it would be the most important thing ever.
그게 세상에서 가장 중요한 일이 될 거라고 믿었고요.
I never thought I was going to be one to actually work on it.
다만, 제가 직접 그런 일을 하게 될 줄은 상상도 못 했어요.
And I feel like, unbelievably lucky
그래서 저는 제가 정말 말도 안 되게 운이 좋다고 느껴요.
and happy and privileged that I get to do this.
그리고 그런 일을 할 수 있다는 게 정말 행복하고, 큰 특권을 가졌다고 느끼고요.
I feel like I've come a long way from my childhood.
어린 시절부터 지금까지 꽤 먼 길을 걸어왔구나 싶어요.
But there was never a question in my mind that this would not be the most exciting, interesting thing.
그러면서도 제 마음속에선 단 한 번도 이 일이 가장 흥미롭고 짜릿한 일이라는 걸 의심하지 않았어요.
I just didn't think it was going to be possible.
단지, 실제로 가능하리라곤 생각하지 못했을 뿐이죠.
And when I went to college,
대학에 갔을 때만 해도,
it really seemed like we were very far from it.
정말 그 목표 지점까지 가려면 한참 멀었다고 느껴졌거든요.
And then in 2012,
그러다 2012년에,
the AlexNet paper came out,
알렉스넷 논문이 나왔고,
done you know, in partnership with my co-founder, Ilya.
그건 오픈AI의 공동 창업자인 일리야가 다른 연구자들과 함께했던 연구였죠.
And...
그리고...
For the first time,
그때 처음으로,
it seemed to me like there was an approach that might work.
"아, 그런 접근법이라면 될지도 모르겠다" 라는 가능성이 보였어요.
And then I kept watching for the next couple of years as scaled up, scaled up, got better, better.
그 이후 몇 년 동안 모델의 규모를 계속 키우면 키울수록 성능이 점점 더 좋아지는 걸 지켜봤죠.
And I remember having this thing of like,
그때 제가 이런 생각을 했던 게 기억나는데,
why is the world not paying attention to this?
"왜 세상은 여기에 주목하지 않는 걸까?"
It seems like obvious to me that this might work.
제 눈엔 그게 될 수도 있다는 게 너무 분명해 보였거든요.
Still a low chance, but it might work.
물론 가능성은 여전히 낮았지만, 될 것처럼 보였죠.
And if it does work, it's just the most important thing.
그리고 저는 만약 그게 된다면, 가장 중요한 일이 될 거라고 느꼈어요.
So like, this is what I want to do.
그래서 저는 "그거야말로 내가 하고 싶은 일이야" 했고,
And then like, unbelievably, it started to work.
믿기지 않게도, 정말 실제로 되기 시작했죠.
────────────────────
아브람 | 1:04:46
Thank you so much for your time.
오늘 귀한 시간 내주셔서 정말 감사합니다.
────────────────────
올트먼 | 1:04:47
Thank you very much.
저도 정말 감사해요.