background top icon
background center wave icon
background filled rhombus icon
background two lines icon
background stroke rhombus icon

Скачать "Christopher Nolan on Oppenheimer, AI and the future (exclusive interview)"

input logo icon
Теги видео
|

Теги видео

HugoDécrypte
Hugo
Travers
Hugo Travers
Actus du jour
Christopher Nolan
Oppenheimer
Face cachée
Interview
Субтитры
|

Субтитры

subtitles menu arrow
  • enАнглийский
Скачать
00:00:00
здравствуйте, Кристофер Нолан, здравствуйте,
00:00:02
очень приятно видеть вас, эээ, сегодня
00:00:04
вы готовы к этому эээ, интервью, я
00:00:06
готов, хорошо, вы можете увидеть
00:00:09
здесь экран с смайликами, если вы нажмете на
00:00:11
зуммер, это остановит один смайлик, и мы' Я
00:00:14
увижу первый вопрос, это песочный
00:00:16
таймер, на экране на 60 секунд появится таймер,
00:00:18
в это время я
00:00:21
дам вам серию прогнозов на
00:00:24
2050 год, и идея состоит в том, чтобы вы
00:00:27
сказали мне одно или несколько слов. что бы вам ни
00:00:29
пришло на ум по этой теме,
00:00:32
хорошо,
00:00:33
давайте начнем с первого
00:00:35
транспорта в 2050 году. или запуска
00:00:39
ядерной бомбы в 2050 году, те же
00:00:43
кинотеатры в 2015 году. Больше и
00:00:46
великолепнее, хорошие ваши фильмы в 2015 году.
00:00:51
ах, ладно, исследование космоса в 2015 году.
00:00:57
Марсианские города в 2050 году,
00:01:02
более высокая любовь в 2015 году
00:01:07
.
00:01:08
окей, а как насчет
00:01:10
мира в 2050 году,
00:01:14
надеюсь,
00:01:15
да, а как насчет войны в 2050 году,
00:01:19
боюсь, хорошо, может быть, последние телефонные самолеты
00:01:23
в 2015 году. тихо, хорошо, давайте перейдем к следующему
00:01:27
вопросу, чтобы вы могли нажать на
00:01:30
звонок [Музыка]
00:01:32
три четверти от 16 до 25 лет старики в
00:01:35
10 странах, как на Севере, так и на Юге,
00:01:37
считают будущее пугающим,
00:01:40
ламонд, это статья, опубликованная в
00:01:42
Lemont около двух лет назад, находите ли вы
00:01:45
будущее ужасающим?
00:01:52
время
00:01:55
пристального внимания к ядерному Армагеддону,
00:02:00
начало 80-х годов в Соединенном Королевстве,
00:02:01
в поп-культуре было много беспокойства, и
00:02:05
вы знаете наш страх и наши отношения,
00:02:07
которые со временем то утихают, то утихают, и я
00:02:09
думаю, что сейчас мы живем в мире,
00:02:10
где эээ, это снова в
00:02:13
умах людей, но главное в Оппенгеймере,
00:02:17
его история, причина, по которой я снял фильм,
00:02:18
который я сделал, это то, что он изменил
00:02:21
мир навсегда, мы живем в мире,
00:02:23
созданном им, и он никогда не исчезнет, ​​и
00:02:26
Я нахожу это пугающим, когда вы
00:02:28
смотрите на расширяющуюся временную шкалу
00:02:31
опасностей и угроз, поэтому Оппенгейм, конечно,
00:02:33
мы поговорим об этом, создал ядерную
00:02:35
бомбу для Соединенных Штатов, если бы
00:02:37
Оппенгеймер не создал ядерную
00:02:40
бомбу, было бы миру лучше сегодня
00:02:43
миру, безусловно, было бы лучше
00:02:45
без угрозы ядерного оружия.
00:02:48
Одна из интересных вещей в
00:02:51
рассказе Оппенгеймера об ученых
00:02:52
того времени и о том, как они взаимодействовали
00:02:54
с военными в этой программе, заключается в том, что для
00:02:57
них атомная энергия была простым фактом
00:02:59
жизни. это было открытие, и поэтому
00:03:02
не было возможности скрыть его, не было возможности
00:03:04
сохранить тайну, они рассматривали это как
00:03:07
информацию, как часть Природы и в
00:03:11
этом смысле силу атома, будь то
00:03:14
мирные цели людей и
00:03:16
создание энергии и и так далее, или все
00:03:18
положительное использование квантовой теории и
00:03:20
атомной физики, ну, или в качестве оружия массового
00:03:24
уничтожения для них, эти вещи были
00:03:26
неизбежны, но я думаю, что если бы существовал
00:03:29
мир, в котором
00:03:31
этого не существовало, ему было бы,
00:03:32
конечно, лучше, но Конечно, это
00:03:34
скажет ей, что изобретение
00:03:35
водородной бомбы было изображено в фильме
00:03:37
Бенни. Безопасность, как вы знаете, для него сын
00:03:40
- это оригинальная водородная бомба, так что для
00:03:43
них, как я говорю, это был факт Природы,
00:03:46
и многие из ваших популярных фильмов поднимают
00:03:49
вопрос об угрозе человечеству, мы
00:03:51
видели принцип interstella oppenheim,
00:03:53
конечно, что это говорит о нас, поскольку
00:03:56
это очень популярные фильмы, но,
00:03:58
возможно, и о вас, ну, я думаю, что как
00:04:01
режиссер мы ищем самые драматические
00:04:03
истории, и поэтому в популярных культура, на
00:04:07
языке кино, вернитесь ли вы
00:04:08
к фильмам о Джеймсе Бонде 60-х годов, в
00:04:11
которых говорилось о ядерной напряженности во время
00:04:13
холодных войн, что-то вроде того, что режиссеры
00:04:15
ищут главную угрозу нашему
00:04:18
выживанию, то, чего мы можем
00:04:19
бояться больше всего и то, что герой
00:04:21
может спасти нас от того, что я впервые
00:04:24
узнал об истории Оппенгеймера, которое
00:04:26
действительно захватило меня, заключалось в том, что был
00:04:28
момент, когда он и его коллеги-
00:04:30
ученые по Манхэттенскому проекту
00:04:33
не смогли исключить потенциал цепной
00:04:37
реакции из этого первого испытания, которое могло бы
00:04:40
уничтожить весь мир, и все же они
00:04:42
нажали кнопку, и вы знаете, что
00:04:45
это самые высокие ставки, о которых я когда-либо
00:04:47
слышал для фильма, это, вы знаете,
00:04:51
очень, очень драматическая ситуация, да, мы можем
00:04:53
снова создать сообщества, вы можете нажать
00:04:55
на зуммер когда он хочет,
00:04:59
и это попкорн, мы с командой весело провели время,
00:05:02
попросив ИИ придумать
00:05:05
название и синопсис фильма под этим
00:05:08
названием Кристофера Нолана, мы посмотрим,
00:05:10
что это значит Нексус в футуристическом
00:05:12
обществе, контролируемом искусственным
00:05:14
интеллектом это очень напрасно, да, для
00:05:17
искусственного интеллекта мятежный
00:05:19
хакер обнаруживает существование
00:05:21
секретной Сети, которая связывает все человеческие
00:05:23
разумы Нексус, когда он погружается в этот
00:05:26
сложный виртуальный мир, слияние иллюзий и реальности
00:05:28
подвергает свою жизнь
00:05:29
риску судьбы человечества, которую он должен найти ядро
00:05:31
следующего безопасного Человечества для
00:05:33
релевантной группы, ИИ завершен, мы говорим
00:05:36
по-английски сапожники, потому что да, полная
00:05:38
чушь, как будто он пытался взять что-то из
00:05:41
нескольких твоих фильмов,
00:05:43
сделал кашу, и получилась просто странная вещь
00:05:45
да, полностью, мы также пытаемся
00:05:47
сделать плакат, который был нормальным, но
00:05:49
больше похожим на комикс, опубликованный по
00:05:52
реальному фильму.
00:05:54
Чувствуешь ли ты, что они вдохновляют меня?
00:05:58
проблема,
00:06:01
которой, э-э, вы знаете, как член гильдии писателей,
00:06:03
мой профсоюз занимается прямо
00:06:04
сейчас,
00:06:05
хм, вы знаете, и я разговаривал со многими
00:06:08
исследователями ИИ в эти дни, и прямо сейчас
00:06:10
они рассматривают этот момент времени как
00:06:13
момент Оппенгеймера, на который они ссылаются это
00:06:16
потому что они смотрят на его историю
00:06:19
говорят: «Хорошо, мы собираемся высвободить
00:06:21
в мире эту очень мощную технологию,
00:06:22
а что насчет непредвиденных
00:06:23
последствий, что нам с этим делать,
00:06:25
но что я нахожу обнадеживающим в
00:06:27
использовании ИИ и В художественной сфере я
00:06:29
думаю, что они станут мощными инструментами,
00:06:30
но в конечном итоге ничто не заменит
00:06:33
человеческое творчество, и эти модели, и
00:06:36
способ, которым они обрабатывают
00:06:37
информацию, все они основаны на человеческом
00:06:39
творчестве из прошлого, поэтому
00:06:41
здесь есть и человеческое творчество. это
00:06:43
что-то в Оппенгеймере, конечно, вы
00:06:45
решили не использовать CGI, да, существует ли риск
00:06:49
того, что использование высокоразвитых технологий,
00:06:52
таких как искусственный интеллект, например, отнимет
00:06:55
суть искусства,
00:06:57
я не думаю, поэтому я думаю, что любой инструмент, который я имею в виду, я
00:07:01
решил не использовать Компьютерная графика для
00:07:04
представления теста Тринити на самом деле была
00:07:07
механической, это художественный выбор,
00:07:09
потому что я чувствую, что компьютерная графика
00:07:11
невероятно сложна и универсальна, и
00:07:15
с ней была проделана необычайная работа, и они, как правило, кажутся
00:07:17
мне немного безопасными, они должны больше играйте
00:07:19
в мире анимации, поэтому
00:07:20
от них трудно получить угрозу,
00:07:22
особенно в фильме, где остальная часть
00:07:23
тона очень реалистична и текстурирована.
00:07:27
Я думаю, что любой инструмент, созданный ИИ,
00:07:30
будь то компьютерный или что-то еще, это еще один
00:07:33
инструмент для кинематографистов
00:07:37
творить с помощью и так до тех пор, пока мы
00:07:39
верим в то, что наши люди
00:07:41
творят с помощью этих инструментов, я думаю,
00:07:45
кино будет продолжать
00:07:48
развиваться захватывающими интересными способами, и
00:07:50
в фильме «Начало» человеческий мозг
00:07:53
реконструирует Уэллса почти идеально в
00:07:56
наших снах до такой степени, что мы,
00:07:58
конечно, больше не можем различать
00:08:00
реальность и сон. Думаете ли вы, что в
00:08:02
понедельник ИИ сможет вскоре достичь этого уровня
00:08:05
творчества или способности дублировать
00:08:08
вещи и полностью стирать
00:08:10
границы между тем, что реально, а
00:08:13
что нет?
00:08:14
лично я так не думаю, это не означает,
00:08:17
что это не опасность, которую стоит учитывать,
00:08:18
или интересная идея, которую стоит рассмотреть,
00:08:20
но я думаю, что если вы посмотрите на сферу
00:08:22
визуальных эффектов, например, когда я впервые
00:08:24
начал использовать визуальные эффекты, все
00:08:27
было связано с симуляцией, все было
00:08:28
об идее, что с помощью компьютерной
00:08:30
графики и трассировки лучей можно
00:08:32
идеально моделировать окружающую среду, и
00:08:34
в конечном итоге это достигает предела, и теперь
00:08:37
подход немного другой,
00:08:38
подход более фотографический, это более
00:08:40
фотографические текстуры, накладывающие их на
00:08:42
формы, используя сложность мира
00:08:45
и наших возможность запечатлеть его с
00:08:47
помощью камер, и поэтому вы видите области,
00:08:51
где, хотя и существует теоретическая
00:08:52
возможность бесконечного прогресса в
00:08:56
некоторых областях, существует предел, который
00:08:57
достигается, потому что реальный мир по
00:09:01
определению бесконечно сложен, реальный
00:09:03
мир не имеет ограничений, и поэтому любой
00:09:06
цифровое моделирование или технология, которая
00:09:10
имитирует, в конечном итоге всегда наталкивается на
00:09:13
определенное ограничение,
00:09:15
хм, мы можем увидеть следующий вопрос, который вы можете
00:09:16
нажать в браузере еще раз,
00:09:19
окей, он останавливается на синей птице, так что,
00:09:21
вероятно, за моей жизнью стоят твиты, это
00:09:24
как фильм Кристофера Нолана, я не Я
00:09:26
действительно не понимаю, что происходит, что
00:09:29
бы ты ему сказал или или где бы
00:09:32
я сказал, не пытайся понять это, просто
00:09:35
почувствуй это, это интересно, потому что я
00:09:37
это вижу. Я иногда смотрел сложные фильмы
00:09:40
с родителями, и это так расстраивает,
00:09:43
потому что 10 через несколько минут после начала
00:09:44
фильма они такие: подожди, я не
00:09:46
понимаю, я не могу смотреть, что
00:09:48
сейчас происходит, потому что Что происходит
00:09:49
Вот как вы это видите, как вы
00:09:51
находите правильный баланс между
00:09:52
простотой и сложностью в фильме Я
00:09:55
не смотрю фильмы с точки зрения баланса
00:09:58
между простотой и сложностью. Я думаю, что на
00:10:00
самом деле речь идет о загадке и наших
00:10:03
ожиданиях от фильмов,
00:10:05
на самом деле всю мою жизнь, но на самом деле с
00:10:08
1950-х годов меня вдохновляло
00:10:09
телевидение и ожидания
00:10:11
телевидения, и иногда это
00:10:13
прискорбно, поэтому я использовать часто использовать
00:10:16
нехронологические структуры нелинейные
00:10:17
структуры это часто делалось
00:10:21
в эпоху немого кино, в ранних звуковых фильмах,
00:10:24
вы знаете, вплоть до появления телевидения,
00:10:25
а затем телевидение как бы
00:10:27
навязывает более линейный и более простой
00:10:29
подход из-за то, как мы
00:10:32
смотрели телевизор с 1950-х годов,
00:10:34
затем, когда появился DVD с домашним видео, и
00:10:37
теперь мы можем смотреть потоковое видео, мы снова можем быть более
00:10:38
смелыми, потому что вы можете смотреть
00:10:40
что-то, вы можете это остановить, вы можете
00:10:43
что-то перемотать, посмотрите это, чтобы мы могли
00:10:45
помочь вам знать более плотные повествования, более
00:10:47
сложные повествования Но, в конечном счете,
00:10:49
суть опыта в
00:10:51
кинотеатре со зрителями, э-э, это
00:10:54
должна быть тайна, э-э, вы не
00:10:57
хотите понимать всю историю
00:10:59
с самого начала, иначе
00:11:00
нечего будет разворачивать, и поэтому вы
00:11:04
действительно знаете мастерство режиссера,
00:11:06
работа режиссера состоит в том, чтобы попытаться
00:11:08
быть немного впереди аудитории,
00:11:10
не слишком далеко впереди и не слишком сильно позади,
00:11:12
когда вы отстаете от аудитории,
00:11:14
аудитория понимает вещи, прежде чем
00:11:16
вы объясните зрители
00:11:18
очень расстраиваются по-другому, да,
00:11:20
потому что они такие, как будто я знал, что этого не должно было
00:11:21
случиться, еще один вопрос, я
00:11:24
думаю, осталось два вопроса, вы можете
00:11:26
нажать зуммер,
00:11:29
окей, это еще один таймер, в общем, я
00:11:31
задам вам ряд вопросов и
00:11:34
идея состоит в том, чтобы ответить да, заказы не принимаются, если
00:11:37
вы хотите пройти, готовы ли вы, поехали,
00:11:40
вы все еще будете снимать фильмы через 10
00:11:43
лет да, могли бы вы однажды снять телешоу
00:11:46
нет, вы думаете, что есть жизнь
00:11:48
где-то еще во вселенной, пройдет после
00:11:51
Бэтмен, ты хочешь снять еще один
00:11:53
фильм о супергероях нет, ИИ уничтожит
00:11:56
человечество нет нет ты все еще отказываешься
00:11:59
иметь смартфон да ты боишься
00:12:02
смерти
00:12:03
да можешь ли ты завести тик-так аккаунт
00:12:05
нет типа если у тебя нет смартфона
00:12:08
это Интерстеллар ваш любимый фильм в
00:12:11
вашей фильмографии
00:12:13
хотели бы вы пройти в кино «Звездные войны» —
00:12:16
это музыка самое главное
00:12:19
в фильме нет нет нет можно есть
00:12:22
во время просмотра фильма да можно ли
00:12:26
смотреть фильмы на смартфонах или ноутбуках
00:12:28
да да делайте вы играете в видеоигры,
00:12:31
может быть, одна последняя, ​​у фильма с большим бюджетом
00:12:34
больше шансов стать
00:12:36
хорошим фильмом,
00:12:38
нет, вы можете сэкономить больше времени, если хотите
00:12:40
ответить на этот вопрос, отношения до
00:12:42
странности просты, когда вы снимаете фильм, которого у
00:12:45
вас никогда не было достаточно времени, а
00:12:46
денег всегда не хватает, независимо от
00:12:48
бюджета, и поэтому я думаю, что на самом деле
00:12:51
бюджет не имеет значения, вот
00:12:53
где становится интересно, так это
00:12:56
взаимодействие предмета с
00:12:58
бюджетом, вы знаете, моим первым фильмом был
00:13:01
фильм, названный вслед за этим Я снимал с
00:13:04
друзьями, вы знаете, мы все работали
00:13:05
полный рабочий день, мы снимали один день в
00:13:07
неделю, по выходным, мы не тратили денег
00:13:09
на фильм,
00:13:10
хм, но я написал сценарий, зная, что именно так
00:13:12
мы собираемся его сделать, поэтому отсутствие
00:13:14
бюджет и тематика были
00:13:16
синхронизированы, и я думаю, что пока вы можете
00:13:19
поддерживать этот баланс, я думаю, ваши
00:13:22
шансы на хороший фильм абсолютно
00:13:25
равны, на каком бы уровне вы ни работали,
00:13:27
так что я думаю, даже такой фильм, как «
00:13:28
Оппенгеймер», возможно, был для
00:13:31
вас невозможно сделать это, как тогда, когда вы начинали
00:13:33
именно фильмы, и теперь, конечно, вам
00:13:36
нужно определенное количество ресурсов, чтобы
00:13:37
рассказать нам о теме определенным образом. Я
00:13:40
имею в виду, я думаю, что вы можете подойти к любой
00:13:42
теме разными способами,
00:13:44
некоторые из них могли бы будь меньше, некоторые были бы
00:13:45
больше, что ты должен решить как
00:13:47
режиссер, это всегда маленькая
00:13:51
история или нет, конечно, с «Началом»? Я
00:13:54
помню, что это был фильм, над которым я работал
00:13:56
много лет, и у меня не было возможности получить большой
00:13:59
бюджет для этого, и поэтому я продолжал искать,
00:14:01
где вы могли бы увидеть, есть ли у него
00:14:03
проект поменьше, и для меня это никогда не сработало бы,
00:14:05
и поэтому я ждал, пока я не смог
00:14:07
получить правильный бюджет для него, ну, так
00:14:10
что это действительно история и о
00:14:12
масштабах подхода, который вы
00:14:14
хотите, но чего вы не
00:14:15
хотите, так это начать снимать фильм с
00:14:17
неправильным бюджетом для данной темы. И
00:14:21
последний вопрос, я думаю, у нас есть, вы
00:14:23
можете нажать на еще один последний раз
00:14:25
[Музыка]
00:14:27
так что за этим эмодзи будет видео,
00:14:30
там интервью Оппенгеймера по
00:14:33
французскому телевидению 4 мая 1962 года. в то
00:14:36
время он, конечно, уже построил
00:14:39
ядерную бомбу для Соединенных Штатов, на которую она
00:14:41
уже приземлилась. о Хиросиме и
00:14:43
Нагазаки, убивших сотни тысяч
00:14:45
людей, и теперь он призывает к
00:14:48
международному контролю над ядерным оружием,
00:14:50
как вы знаете, поэтому журналисты здесь Ичиен
00:14:52
Лалу задал ему вопрос о судьбе
00:14:55
человечества, и вы можете видеть его
00:14:57
ответ, который
00:15:10
воспринимается по-сербски,
00:15:15
здесь
00:15:16
следует 'не охватите нас оптимистичными
00:15:19
измерениями да,
00:15:24
что вы видите здесь, в Оппенгеймере?
00:15:29
Я вижу человека, который всегда чрезвычайно
00:15:31
осторожен со всем, что он говорил.
00:15:34
После бомбардировок Хиросимы Нагасаки в 1945 году
00:15:37
он был очень, очень осторожен,
00:15:41
никогда не извинялся и брал на себя личную
00:15:44
ответственность за то, что произошло,
00:15:47
но действия, которые он предпринял, и это одна
00:15:51
из причин, по которой мне было интересно
00:15:52
рассказать эту историю, э-э, действия принадлежат
00:15:54
человеку с очень-очень
00:15:56
развитым чувством ответственности и
00:15:59
стыда, и, следовательно, то, как он
00:16:02
ответил на многие из этих вопросов в более позднем
00:16:03
возрасте они очень-очень
00:16:05
осторожны, и я думаю, что это очень
00:16:07
красноречивое выражение: да, это
00:16:10
сложно, если вы действительно углубитесь в
00:16:13
вопрос об атомной бомбе, как она стала такой, что она собой представляет,
00:16:15
куда она идет дальше, чем
00:16:18
она является очень трудно быть оптимистом,
00:16:20
но тот факт, что вы знаете, что он все еще
00:16:23
хочет надеяться, я думаю,
00:16:25
указывает на то, кем он был как личность, а
00:16:27
также на то, как он чувствовал, что ему нужно
00:16:28
общаться с людьми, потому что, если вы
00:16:30
просто говорите людям, что небо падает
00:16:32
все время они перестают слушать и
00:16:34
в фильме, конечно, в реальной жизни,
00:16:36
потому что он, конечно, основан на реальной
00:16:37
истории, ученые рассматривают
00:16:40
возможность того, что бомба уничтожит все
00:16:42
человечество в Хеймере, думает, что
00:16:45
риск близок к нулю, но он продолжается,
00:16:48
конечно, тест - это смелость,
00:16:52
это безумие, как бы вы определили это
00:16:54
действие?
00:16:56
Я думаю, что очень сложно понять, как
00:17:02
эти ученые видели
00:17:05
контекст, которым я был, конечно, контекст
00:17:08
очень важен, они чувствовали, что это
00:17:10
было что-то, что абсолютно необходимо, чтобы
00:17:12
произошло, и их оценка риска
00:17:16
уникальна,
00:17:21
статистически субъективна, вы знаете, что это
00:17:23
ученые, и они рассматривают риск
00:17:25
совершенно особым образом. Я думаю, что для большинства из
00:17:28
нас
00:17:29
масштаб последствий
00:17:31
перевешивает
00:17:33
малость риска, но я думаю,
00:17:36
что более
00:17:37
научные и логические умы
00:17:41
не видят, что масштаб последствий
00:17:43
влияет на статистическую вероятность
00:17:45
риска. Я думаю, что мы все, как
00:17:48
не ученые, тот факт, что если вы нажмете
00:17:50
эту кнопку, вы можете уничтожить весь
00:17:53
мир, каким бы малым ни был риск мы бы не
00:17:56
нажимали на кнопку, но я думаю, что для
00:17:57
ученых масштаб
00:17:59
последствий не имеет значения, суть в том, что
00:18:01
они провели свои расчеты, которые
00:18:02
показали, что
00:18:04
очень и очень маловероятно, что нажатие этой
00:18:07
кнопки уничтожит мир, поэтому они идут
00:18:09
вперед и продвигают его, да, мощно,
00:18:11
это было, я рад, что этого
00:18:13
недостаточно, да, и, конечно, чтобы
00:18:17
каждый имел контекст в этом фильме
00:18:18
и, конечно, нацисты, и риск того, что у
00:18:20
них есть ядерная бомба, и это может использовать
00:18:22
его, конечно, есть этот политический
00:18:24
мир. Я имею в виду то, что мне
00:18:26
действительно интересно в этой
00:18:29
истории. У меня не было никакого интереса снимать фильм
00:18:31
об ученых, которые были двумя глупцами, чтобы
00:18:34
понять, что, если они построят эту штуку,
00:18:35
произойдут ужасные вещи.
00:18:38
это были очень, очень блестящие люди,
00:18:40
которые хорошо осознавали
00:18:42
потенциал того, что они делали,
00:18:44
но они были в ситуации, когда они
00:18:46
знали, что немцы расщепили атом,
00:18:49
они знали, что пытались сделать
00:18:51
ядерную бомбу и, э-э, вы знаете, выиграйте
00:18:54
войну таким образом, и поэтому они почувствовали, что у них нет
00:18:58
абсолютно никакого выбора, и именно это
00:19:00
делает эту историю такой убедительной, и мы
00:19:03
говорили об ИИ несколько минут назад,
00:19:05
и, конечно, этот вопрос о расширении
00:19:08
границ, должны ли мы всегда ставить
00:19:10
приоритетом прогресс Наука и
00:19:12
расширение границ во всем
00:19:15
остальном, эта труба рискует тем, что, возможно, здесь можно
00:19:18
найти хорошее в противовес своего рода
00:19:20
балансу. Я имею в виду, я думаю, вы действительно видите, что
00:19:25
ученые временами теряются в чистой
00:19:29
теории того, что они делают, и не
00:19:32
обязательно осознают это. о последствиях,
00:19:35
но я также думаю, что было бы упрощением и
00:19:37
упрощением говорить, что задолго до того, как ученые
00:19:40
добьются прогресса, мы должны спланировать, как
00:19:42
мы с этим справимся. Вы видите это в моем
00:19:45
бизнесе прямо сейчас, вы знаете, в фильме
00:19:46
деловые люди очень беспокоятся об
00:19:47
ИИ и их применения,
00:19:49
и они хотят защиты от этого, но
00:19:52
реальность такова, пока эти вещи не
00:19:55
прогрессируют. Трудно понять, что именно
00:19:59
нужно контролировать, и я думаю, что
00:20:01
большая часть научного прогресса
00:20:03
такова, пока мы не увидим потенциал, пока
00:20:05
он не начнет осознать, что
00:20:08
остальной части общества очень трудно принимать
00:20:11
законы и судить, и именно здесь
00:20:13
возникает реальная опасность в том, что Оппенгеймер
00:20:15
считал реальной опасностью, и я думаю, что он
00:20:18
был прав: секретность, им пришлось
00:20:20
разрабатывать Манхэттенский проект в строжайшей
00:20:23
секретности, но они боролись с этим,
00:20:26
ученые боролись с этим на каждом этапе
00:20:28
пути, потому что они считали, что
00:20:29
знание должно быть общим, оно должно быть
00:20:31
открытым, и таким образом как опасности,
00:20:34
так и преимущества могут быть разделены между
00:20:36
всеми и ими можно управлять. Я
00:20:39
думаю, что применительно к
00:20:41
большинству примеров того, что вы спрашиваете
00:20:44
о том, что он называл откровенностью, вы
00:20:47
знаете, что открытость на самом деле важна,
00:20:50
это также то, что мы видим в фильме,
00:20:51
он,
00:20:53
хм, он ищет мира, и это делает
00:20:55
тему цели парадоксальной с
00:20:57
история, которую мы знаем об Оппенгеймере, но он
00:20:59
утверждает, что хочет мира, и в
00:21:01
то же время, конечно, строит это, что
00:21:04
может быть угрозой, это, конечно, угроза,
00:21:05
и так что это целая этика, ну, он был
00:21:08
одним из первых людей, на которых он не
00:21:10
ссылался к этому как к взаимно гарантированному
00:21:12
уничтожению, но он был одним из первых
00:21:13
людей здесь, Нильс Боран, который начал
00:21:15
исследовать и формулировать идею о том, что
00:21:18
с таким мощным оружием тот тип
00:21:20
войны, который мы видели во Второй мировой войне и
00:21:22
Первой мировой войне, становится непрактичным и
00:21:25
немыслимым и есть аргумент, что один из
00:21:28
способов взглянуть на ситуацию в
00:21:30
современном мире заключается в том, что он был
00:21:32
прав в этом вопросе,
00:21:34
я не знаю, тогда не было никаких
00:21:37
простых ответов на вопросы,
00:21:39
которые поднимает его история, я думаю, что фильм
00:21:41
было здорово затронуть эти вопросы, и
00:21:43
я хочу прочитать биографию сейчас
00:21:45
и продолжить узнавать о нем,
00:21:47
большое спасибо, Кристофер Нолан, за то, что
00:21:49
спасибо, что нашли время сегодня, и
00:21:51
да, весело провести время сегодня в Париже,
00:21:53
спасибо, большое спасибо, спасибо ты, спасибо

Описание:

Subscribe for more exclusive interviews and to support me ! 🫶 A fascinating discussion with Christopher Nolan on Oppenheimer, the fear of the future, AI, ethics, science, progress... 🇺🇸🇬🇧 : Audio and subtitles are available in English and French. Adjust the video settings to suit your preferences. You can also watch interviews with : - Bill Gates : https://www.youtube.com/watch?v=s0T9-i4HXr4 - Hugh Jackman : https://www.youtube.com/watch?v=hCWvO2Zucto Interview for Christopher Nolan's upcoming film "Oppenheimer" in French cinemas on July 19, 2023 and in American thaters on July 21, 2023. – 00:00 1 01:26 2 04:53 3 09:14 4 11:23 5 14:21 6 – Hosted by Hugo Travers Journalists : Benjamin Aleberteau, Roxanne Aiouo, Hugo Travers Director of production: Julien Potié Delegate production manager: Romane Meissonnier Delegate production assistant : Clément Chaulet Executive production coordinator : Marie Delvallée Director of Photography : Lucas Stoll Video operators : Pierre Amilhat, Vanon Borget, Guillaume Quincy Electrician : Alex Henry Sound operator: June Beshay Screen set-up: Jonathan Sfez, Elie Belkheir Make-up artist: Kim Desnoyers Set photographer: Clément Cellier-Gauthier / @Cloumzy Editor: Clément Marouzé Post-prod support : Stanley Duplan Colorist: Hugues Dardart Mixer: Arthaud Versaveaud Thumbnail: Xifiz Translation and subtitles in English : Romane Meissonnier, Julien Potié Translation and subtitles in Spanish : Jassi Villaroel French voice, Christopher Nolan : Mike Guimond Partnership / PR manager: Violaine Bescou Thanks to the Bristol team for their warm hospitality. UNFOLD / PLANIPRESSE / VIP ORCHESTRA Video credit: INA – © HugoDécrypte / 2023

Готовим варианты загрузки

popular icon
Популярные
hd icon
HD видео
audio icon
Только звук
total icon
Все форматы
* — Если видео проигрывается в новой вкладке, перейдите в неё, а затем кликните по видео правой кнопкой мыши и выберите пункт "Сохранить видео как..."
** — Ссылка предназначенная для онлайн воспроизведения в специализированных плеерах

Вопросы о скачивании видео

mobile menu iconКак можно скачать видео "Christopher Nolan on Oppenheimer, AI and the future (exclusive interview)"?mobile menu icon

  • Сайт http://unidownloader.com/ — лучший способ скачать видео или отдельно аудиодорожку, если хочется обойтись без установки программ и расширений. Расширение UDL Helper — удобная кнопка, которая органично встраивается на сайты YouTube, Instagram и OK.ru для быстрого скачивания контента.

  • Программа UDL Client (для Windows) — самое мощное решение, поддерживающее более 900 сайтов, социальных сетей и видеохостингов, а также любое качество видео, которое доступно в источнике.

  • UDL Lite — представляет собой удобный доступ к сайту с мобильного устройства. С его помощью вы можете легко скачивать видео прямо на смартфон.

mobile menu iconКакой формат видео "Christopher Nolan on Oppenheimer, AI and the future (exclusive interview)" выбрать?mobile menu icon

  • Наилучшее качество имеют форматы FullHD (1080p), 2K (1440p), 4K (2160p) и 8K (4320p). Чем больше разрешение вашего экрана, тем выше должно быть качество видео. Однако следует учесть и другие факторы: скорость скачивания, количество свободного места, а также производительность устройства при воспроизведении.

mobile menu iconПочему компьютер зависает при загрузке видео "Christopher Nolan on Oppenheimer, AI and the future (exclusive interview)"?mobile menu icon

  • Полностью зависать браузер/компьютер не должен! Если это произошло, просьба сообщить об этом, указав ссылку на видео. Иногда видео нельзя скачать напрямую в подходящем формате, поэтому мы добавили возможность конвертации файла в нужный формат. В отдельных случаях этот процесс может активно использовать ресурсы компьютера.

mobile menu iconКак скачать видео "Christopher Nolan on Oppenheimer, AI and the future (exclusive interview)" на телефон?mobile menu icon

  • Вы можете скачать видео на свой смартфон с помощью сайта или pwa-приложения UDL Lite. Также есть возможность отправить ссылку на скачивание через QR-код с помощью расширения UDL Helper.

mobile menu iconКак скачать аудиодорожку (музыку) в MP3 "Christopher Nolan on Oppenheimer, AI and the future (exclusive interview)"?mobile menu icon

  • Самый удобный способ — воспользоваться программой UDL Client, которая поддерживает конвертацию видео в формат MP3. В некоторых случаях MP3 можно скачать и через расширение UDL Helper.

mobile menu iconКак сохранить кадр из видео "Christopher Nolan on Oppenheimer, AI and the future (exclusive interview)"?mobile menu icon

  • Эта функция доступна в расширении UDL Helper. Убедитесь, что в настройках отмечен пункт «Отображать кнопку сохранения скриншота из видео». В правом нижнем углу плеера левее иконки «Настройки» должна появиться иконка камеры, по нажатию на которую текущий кадр из видео будет сохранён на ваш компьютер в формате JPEG.

mobile menu iconСколько это всё стоит?mobile menu icon

  • Нисколько. Наши сервисы абсолютно бесплатны для всех пользователей. Здесь нет PRO подписок, нет ограничений на количество или максимальную длину скачиваемого видео.