Рецензии и обзоры. ЦВЕТКОВА В.А. О КНИГЕ Д.В. МУНА, В.В. ПОПЕТЫ «ГРЯДУЩЕЕ: РИСКИ, УГРОЗЫ, ВЫЗОВЫ. КНИГА 3 ИЗ ЦИКЛА «ПРЕДУПРЕЖДЕНИЕ ТЕХНОГЕННЫХ КАТАСТРОФ»

Хотя прогресс открывает перед нами удивительные

 возможности…. Я вижу свою задачу в привлечении

внимания к связанными с ним опасными угрозами.

Юваль Ной Харари. 21 урок для 21 века

 

  Задумка авторов показать миру, что такое техногенные и природные катастрофы, чем они грозят человечеству, находит воплощение в трех последовательных книгах из цикла «Предупреждение техногенных катастроф»:

  1. 1. Мун Д. В., Попета В. В., Попета А. В., Смолков П.Е. От «Титаника» до «Фукусимы»: алгоритмы техногенных катастроф /. - Изд. 2-е, доп. и перераб. - Калининград Москва : Библио-Глобус, 2016. - 335 с. : ил. - (Библиотека безопасности жизнедеятельности). - ISBN 978-5-906830-67-8.
  2. 2. Мун Д. В., Попета В. В., Смолков П. Е. «От «Титаника» до «Зимней вишни». Алгоритмы грядущих катастроф». // Москва, «Директ-медиа». – 2018. - 352 с.
  3. 3. Мун Д. В., Попета В. В. Предупреждение техногенных катастроф. Книга 3. Грядущее. Риски, угрозы, вызовы. – Москва-Берлин : ООО «Директ-Медиа», 2023. – 200 с. – находится в стадии подготовки.

  Ранее авторы предложили нам интереснейшие исследования из области наиболее крупных катастроф в работе: Мун Д. В., Попета В. В., Смолков П. Е. «От «Титаника» до «Зимней вишни». Алгоритмы грядущих катастроф». // Москва, «Директ-медиа». – 2018. - 352 с. Такая последовательность и приверженность направлению исследований позволяет авторам рассказать о наиболее значимых катастрофах прошлого и настоящего проанализировать причины, которые привели к столь серьезным ударам и остановиться на рисках, угрозах и вызовах, с которыми может столкнуться человечество в ближайшие периоды времени. Третья книга – это книга – ПРЕДУПРЕЖДЕНИЕ, своего рода послание о возможных последствиях нашего неуемного желания на пути к новому, к прогрессу и плохой проработки возможных последствий постоянных нововведений в нашу повседневную жизнь. Не зря в предисловии есть упоминание «Библиотека безопасности жизнедеятельности Международного профессионального сообщества www.Risk.today» 

   Первая книга из задуманной авторами серии рассмотрена в статье Цветковой В.А. Рецензия на книгу Д.В. Муна, В.В. Попеты «Предупреждение техногенных катастроф» В 3 кн. Книга 1 : Уроки истории (Москва, Берлин 2022) // Вопросы инновационной экономики, 2022. - Т. 12, - № 1. DOI: 10.18334/vinec.12.1.114251. //URL: https://1economic.ru/lib/114251. Авторы сознательно нарушили задуманную последовательность и подготовили поле первой сразу третью книгу: «Грядущее: риски, угрозы, вызовы», мотивируя это тем, «что будущее уже наступило», оно не в далекой перспективе, а уже «здесь и сейчас». С этим тезисом авторов нельзя не согласиться.

   Более основательно остановимся на книге 3 - книге Предупреждении. Поставленная авторами целевая задача формирования рискоориентированного мышления у широкой аудитории в условиях стремительного развития технологий, усложнения конструкций технических средств, проникновения сложных программных решений в обыденную жизнь, порой эти решения находятся на пограничном уровне с искусственным интеллектом, использованием ядерной энергии как в мирных, так и милитаристских целях, повышением активности в зоне природных катастроф в данной книге особенно остро.

  Богатый материал книги очень хорошо структурирован. Четыре крупных раздела раскрывают состояние и тенденции развития и рисковых ситуаций. Авторы справедливо делают акцент на «человеческом факторе». Сразу возникает вопрос: а может ли Человек отслеживать все сбои в сложнейших механизмах океанских лайнеров, космических кораблей, сегодняшних реактивных самолетов и т.д.? Вопрос есть, но ответа пока нет, поскольку никакое, даже самое наилучшее, образование, сверхвысокие способности современного Человека не предполагают того уровня знаний, на котором он владел бы в совершенстве математикой, механикой, физикой, химией, биологией, разбирался на самом высоком уровне в поведении океанических волн, ядерных процессов, «шуток» природы. Безусловно, «человеческий фактор» направлен, в первую очередь, на созидание нового, а не на разрушение достигнутого, на предотвращение катастроф как рукотворного, так и природного характера. Последовательно прослеживается линия прогресса от появления письменности до полетов в космос и первых попыток реализовать мечту об «искусственном интеллекте» (ИИ).

  Первый раздел книги, пожалуй, наиболее важный в контексте данного изложения: «От спама до фейка: неучтенные риски четвертой ИТ-революции» включают глубокие исследования последствий четырех информационных революций (ИР). Первая – это прорыв, обусловленный изобретением письменности, что принципиально изменило возможность накапливать и передавать данные на внешних носителях в социальной среде. Реперной точкой начала второй ИР стало изобретение Гутенбергом (1450 г.) печатного станка, книгопечатания, что изменило общество, создав дополнительные возможности приобщения к культурным ценностям сразу больших слоев населения, разрушило монополию узкого круга избранных «ученых» людей на знания. Третья ИР обусловлена изменением всей системы коммуникации благодаря изобретениям радио, телеграфа, телефона, и телевидения. Информация, от точки ее производства, теперь могла практически мгновенно попадать к миллионам потенциальных потребителей. Началась эра СМИ – вертикальных медиа, способных аккумулировать и транслировать в огромных объемах не только текстовую, но звуковую и аудио-визуальную информацию аудиториям людей, находящихся на больших расстояниях как друг от друга, так и от источника передачи информации. Четвертая ИР, которую принято называть революцией информационных технологий (ИТ), началась с изобретения компьютеров, а настоящий прорыв произошел благодаря изобретению интернета - всемирной информационной сети. Первое, что произошло после начала массового подключения пользователей ко всемирной сети – это многократный рост объемов информации, получивший название «информационный взрыв». Информационный шум, или спам сегодня - главная помеха умственной деятельности современного человека - неуправляемое распространение недостоверной и непроверяемой информации, в том числе фейковых новостей. Авторы затрагивают и тенденции развития ИИ, первых шагах в этом направлении, связанных скорее с потенциалом программных средств, квалификацией и фантазией программистов (IT – специалистов), чем с понятием ИИ. Кстати четкого определения этого понятия пока не сформировалось. Мы еще плохо понимаем, что есть ИИ, но поисковые работы в этом направлении ведутся активно. Можно предположить, что это начало пятой информационной революции.

 Интересен акцент на кибертерроризме и хакерских работах. Эти направления развиваются стремительно и включаются как в гражданские, так и в милитаристские направления жизни современного общества. Авторы рассматривают кибертерроризм как глобальный вызов общественной безопасности.

  Крайне важно направление исследования, связанное с рисками, вызванными информационными перегрузками, как острейшим вызовом для человеческой психики. Возможно, именно информационные перегрузки порой ведут к катастрофам, к странному поведению детей и подростков. Примером тому может служить работа авиационных диспетчеров. Важен затронутый авторами момент, связанный с гонкой за количеством статей, не качеством, а именно, количеством, за различными индексами библиометрических оценок, что ведет к девальвации научной информации, потере ценной информации в море никому не нужных статей, написанных исключительно в угоду показателей «научной результативности». Сегодня этот подход доминирует в умах управленцев: чем больше статей придумал тот или иной борзописец, тем он наиболее значим и достоин карьерных и финансовых поощрений. При этом об отрицательных показателях в исследованиях не желательно даже упоминать. А ведь это одна из важнейших позиций в научных направлениях, прокладывающих путь к реальному результату, в современных терминах, это «дорожная карта» развития научного направления. Именно такой подход не позволяет вести нормальные научные исследования, результатом которых и являются научные публикации. Эта позиции порождает серьезные риски непосредственно в направлениях научной работы и порождает дополнительные риски в тенденциях технического прогресса и его поддержки на государственном уровне.

 Тревожным симптомом стало повсеместное увлечение гаджетами, что привело к снижению интеллекта у современной молодежи, порой к потере умения не только излагать свои мысли, но и к банальному неумению писать «от руки». Использование эмодзи позволяет, общаясь при помощи примитивных символов, упросить и увеличить скорость обмена сообщениями, а также, в некоторой степени, снять языковые барьеры… Авторы задают вопрос: что нас ждет завтра, не приведет ли нас коммуникация при помощи примитивных изображений обратно в каменный век? Ведь каменный век закончился не потому, что закончились камни. Тревожно, что новое поколение порой живет не в реальном мире, а в «виртуальном», в котором пытается построить некий свой образ жизни, что приводит к нервным расстройствам, конфликту с обществом, в первую очередь, с родителями, подрывая в конечном итоге устойчивость семейной модели.

  Интересны зарисовки на тему развивающегося Искусственного интеллекта (ИИ). В становлении этого направления сразу видны возможные риски и опасности. Еще в 2015 г. Илон Маск назвал искусственный интеллект «созданным человеком демоном» и пожертвовал значительную сумму на исследования по контролю над ИИ. Через несколько лет он заявил: "Я продолжаю бить тревогу, но пока люди сами не увидят роботов, которые ходят по улицам и убивают людей, они не узнают, как реагировать на искусственный интеллект". Он назвал искусственный интеллект "наибольшей угрозой, с которой сталкивалась цивилизация", и отметил, что человечеству надо быть предельно осторожным с технологией, которая «потенциально более опасна, чем ядерное оружие». По его словам, если вовремя не вмешаться в процесс развития этих систем, то будет слишком поздно [1]. Авторы иллюстрируют использование отдельных направлений применения ИИ на современном уровне, как правило достаточно безобидного, направленного на улучшении жизни социума. А вот в отношении рисков мы пока довольствуемся фантастикой, которая очень быстро превращается в реальность. Восстание роботов против людей под руководством ИИ многократно описано в литературных и кинематографических произведениях. Основной фабулой большинства данных произведений является идея о неотвратимости противостояния «машин» и людей и о грядущей безоговорочной победе роботов над создавшими их людьми. Пожалуй, фантастические события, изложенные в произведениях Айзека Азимова «Я робот» [2] и Артура Кларка в романе «Космическая Одиссея», могут стать реальностью. Обратим внимание на эпизод с неповиновением компьютера в романе А. Кларка, где человеческий разум все-таки оказался выше ИИ компьютера. В этом направлении уже надо начинать искать решения, к чему, собственно, и призывают авторы настоящей книги. Но главные проблемы, связанные с тотальной цифровизацией мира, по их мнению, еще впереди.

  Обратим внимание на упоминание авторами состояния знаменитых «Часов Судного дня» (англ. Doomsday Clock – проект, начатый в 1947 году в Чикаго учеными, создавшими первый в мире атомный реактор и атомную бомбу), которые 23 января 2020 года были передвинуты в самое близкое к полуночи положение за всю их историю. А вот 24 января 2023 г. стрелки часов еще ближе были передвинуты к полуночи. До момента, когда часы пробьют «полночь», символизирующую собой уничтожение жизни на планете, время исчисляется в секундах [3]. Это печальный рекорд нашего времени. Экспертная комиссия по переводу «Часов Судного дня», в составе которой 18 Нобелевских лауреатов, обосновывая свое решение, заключает, что сегодня мировые лидеры все менее способны противостоять все более вероятным угрозам ядерной войны, в том числе, из-за нарастающих информационных войн в киберпространстве, роста числа фейковых новостей и спланированных кампаний по дезинформации в интернете.

 Во второй части «Люди VS машины: угрозы, риски и вызовы Индустрии 4.0» авторы акцентируют внимание на направлениях, которые наиболее близки сегодня к исследованиям в области ИИ, по крайней мере, в приближении сегодняшнего периода времени. Авторы отмечают, что «Четвёртая промышленная революция (англ. The Fourth Industrial Revolution) — будущее массовое внедрение киберфизических систем в производство (индустрия 4.0), в результате чего изменения охватят самые разные стороны жизни: рынок труда, жизненную среду, политические системы, технологический уклад, и даже человеческую идентичность. Индустрия 4.0 несёт в себе риски повышения нестабильности и возможного коллапса мировой системы». В повседневной жизни мы привыкли к тому, что по интернету совершаем покупки, используем машинные переводчики с одного языка на другой, специальные роботы помогают убирать наше жилище, участвуют в проведении хирургических операций, управление лайнерами осуществляет автопилот, в Лондонском метро едут беспилотные поезда, беспилотные автомобили уже колесят по дорогам. Многому полезному мы обязаны ИИ. Но авторы четко придерживаются концепции, заявленной в настоящей книге, показать риски в дальнейшем развитии ИИ. Авторы приводят предупреждение известного физика Стивена Хокинга, сделанное им еще в 2014 г.: «Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисковКогда искусственный интеллект начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, это будут вещи, недоступные нашему пониманию…, если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще» [4].

  Отличительной особенностью ИИ является способность к обучению. Главная задача обучения – научить мыслить, а не просто запоминать. Каждый процесс обучения как у человека, так и у ИИ, уникален, неповторим, и непредсказуем. Авторы отмечают, что в какой-то момент из-за программного сбоя, или нечеткого восприятия реальности, ИИ, обладающий сознанием и свободой воли может спровоцировать обмен ударами между Россией и США - ядерными сверхдежавами и … начнется война на полное уничтожение человечества. Таким образом, риски растущего Искусственного интеллекта становятся все более ощутимыми и прогнозируемыми, что требует особого внимания к соответствующим разработкам в части безопасности. «Ящик Пандоры открылся» - предупреждают авторы. Важно, что в книге рассмотрены как прогрессивное, нужное для развития общества сегодняшнего дня, так и те слабые звенья, где «что-то пошло не так». «Знания – это сила. Знания, помноженные на технологии - есть власть. Именно поэтому многие люди, одержимые жаждой власти, охотятся за знаниями и технологиями. И когда, рано или поздно, открытые учеными, инженерами, и другими естествоиспытателями теории и технологии становится достоянием одержимых властью людей – тогда жди беды. Вместо улыбок и эдемских садов будут бесконечные войны, разруха и страх. Именно об этом и предупреждал современников, а также нас, потомков, великий Герберт Уэллс».

  Третий раздет книги «Люди вне закона: перспективы и жертвы беспилотного транспорта» направлен на исследование рисков стремительно развивающегося направления гражданского беспилотного транспорта. Это направление развивается в разных отраслях, включая автомобилестроение, авиацию, вождение поездов в метро и на железных дорогах. Именно в этом секторе мы наблюдаем постоянные автомобильные (беспилотные такси) и авиа катастрофы, сбои на железнодорожном транспорте и т.п. Авторы привели весьма показательные примеры, которые подчеркивают, что именно здесь кроются серьезные угрозы и риски, в значительной степени обусловленные человеческим фактором. Это и разработки компании Tesla в зоне беспилотного управления автомобильным транспортом, при этом предупреждающих о том, что «водитель при езде на автопилоте должен быть готовым в любой момент вмешаться. Руки нужно непрерывно держать на руле, иначе система подаст звуковой сигнал и постепенно остановит электромобиль» (стр.85 настоящей книги). Это и риски в авиации, когда мы стали очень часто сталкиваться с авиакатастрофами, где присутствуют и технические недоработки, и человеческий фактор, и терроризм. Еще пару десятков лет назад пилотов воздушной авиации учили летать на самолетах, в которых ни о каком автопилоте и речи не шло. Они должны были налетать определенное количество часов в реальных условиях управления машиной. Сегодня подготовка ведется на тренажерах с высоким уровнем реалистичности (Full Flight Simulator), реальных навыков полета будущие летчики не получают, около 95% времени полета – это заслуга автопилота, однако часы засчитываются летчику. Такой режим хорошо описан в романе Артура Хейли «Аэропорт» [5], включая ситуацию, когда опыт летчиков оказался превалирующим и спас от реальной катастрофы. Однако есть реальные примеры, когда робот победил человека, что привело к крушение рейса JT-610 через 11 минут после взлёта из аэропорта Джакарты, ровно столько времени члены экипажа смогли противостоять беспощадной «системе улучшения характеристик маневрирования»…- этот пример описан авторами.

  Действительно, разработка и включение в практику новшеств часто приводит к жертвам на этапах испытаний. Безусловно, автопилоты имеют свои преимущества перед «человеческими слабостями», но пока все-таки доминирует человеческий интеллект и первостепенной задачей остаются функция обучения, подготовки соответствующих специалистов. Видимо не зря, одним из основных критериев ИИ является способность роботов к самообучению. Но и здесь скрыты риски и тревоги в связи с развитием технологий ИИ.

  Четвертый раздел книги посвящен природным катастрофам. Рассмотрены и риски глобального природного потепления, последствия и причины пожаров, цунами и волны-убийцы. При этом дается достаточно полная и близкая к реальности картина последствий этих природных катастроф, а также исследовано влияние человеческого фактора в истории ряда крупных катастроф. В природных катастрофах, таких как ландшафтно-лесные пожары, роль человеческого фактора велика, поскольку в числе причин можно указать неконтролируемое сжигание людьми травы, мусора, проведение пикников, разбрасывание осколков стекла, даже непогашенная сигарета в сухой период может привести к пожару с трагическими последствиями.

  Интересен материал, касающийся «волн-убийц», мало известный широким массам населения, в том числе и тем, кто предпочитает отдых на морском или океаническом побережье. Под данным названием (в английском языке из еще называют rogue wave — волна-разбойник, или freak wave – чертова/бешеная/чокнутая волна; у французов можно встретить термин onde scélérate — волна-злодейка, galéjade — волна-небылица, вымысел ) подразумеваются огромные - высотой от 20 и более метров - одиночные волны, возникающие не во время ураганного ветра и сильного шторма, а даже при отсутствии волнения на море. Волны-убийцы не являются следствием каких-то масштабных геофизических событий, вроде землетрясений, извержений вулканов, циклонов, сопровождающихся ураганными ветрами, а возникают, на первый взгляд, абсолютно внезапно. Специалисты и ученые, несмотря на имеющие место факты, не считали волны-убийцы достойным внимания науки объектом. Только после того, как 1 января 1995 г. нефтегазовая буровая платформа «Дропнер» компании Statoil (Норвегия), расположенная в акватории Северного моря, подверглась удару одиночной волны экстремальной высоты в 25,6 метров (84 футов). На этот раз «чокнутая волна» была зафиксирована лазерным волнографом, который был установлен на платформе. Разрушения, нанесенные волной, также не оставляли сомнений в правильности измерений, осуществленных прибором. Наличие множества фактов привело к официальному признанию существования «волн-убийц» и началу их научного исследования.

  Важный и актуальный аспект исследования направлен на привлечение внимания к повышению вирусной активности в мире. Причинами могут быть как результаты биологических разработок в лабораториях разных стран, так и тающие могильники скота, в том числе с сибирской язвой, как результат глобального потепления, и следы гриппа «испанка», появившиеся после таяния снега на Аляске, неизвестные науке вирусы, обнаруженные при сходе ледников в Тибете, список природных источников может быть весьма длинным. Однако риски этих процессов прогнозируемы и весьма неутешительны, что подтвердила затронувшая практически все население Земли пандемия 2019-2022 гг., которая пока еще не окончательно затихла.

  Важно, что авторы затронули многие аспекты проблемы природных катастроф применительно к России. Глобальное потепление на территории нашей страны более чем в 2.5 раза выше скорости роста глобальной средней температуры в мире. Так, для периода 1976-2021 гг. она составила плюс 0.49 градуса только за последнее десятилетие. Авторы, ссылаясь на Ежегодный доклад МЧС 2021 г., отмечают, что в России наблюдается рост всех видов чрезвычайных ситуаций, при этом причиной большинства природных чрезвычайных ситуаций, произошедших в стране в 2021 году, стали происходящие изменения климата, и прогнозы на ближайшее будущее неблагоприятны. Авторы показали риски изменений климата для России, что уже «здесь и сейчас» позволяет разработать меры предосторожности. Вместе с тем, по сравнению с другими странами, главным преимуществом России в части эффективной адаптации к климатическим изменениям являются самая большая в мире территория и самый большой в мире запас пресной воды. Именно это преимущество оставляет за Россией возможности для осуществления тактического маневра в части переселения или расселения населения, а также переноса критических объектов инфраструктуры с территорий, которые подвергаются непрерывному или циклично повторяющемуся воздействию неблагоприятных климатических явлений, в более благополучные районы.

 Заключение

  Предложенная книга – это не только и не столько желание авторов ознакомить читателей с наиболее ощутимыми человечеством катастрофами. Это научное исследование, направленное на оценку последствий катастроф разного типа и возможностей их предотвращения и минимизации рисков. Это книга – ПРЕДУПРЕЖДЕНИЕ нам и последующим поколениям о том, что новые технологии – это не только «прелести» повседневной жизни, но и серьезные риски. Авторы вывели условный алгоритм формирования техногенных катастроф, включающий ряд стадий от момента создания объекта до катастрофы и поведения людей/персонала в критический период. И это значимый вклад в теорию понимания рисков техногенных и природных катастроф. К сожалению, даже участников катастроф, история учит слабо. Здесь уместно напомнить эпизод, приведенный в книге, из истории катастрофы планетарного масштаба на АЭС «Факусима» в Японии - ядерная катастрофа максимального, седьмого уровня по шкале INES[1] на АЭС Фукусима 1. Катастрофа «Made in Japan» (англ. Сделано в Японии), как ее называют сами японцы. Уже после всего произошедшего с АЭС Фукусима 1, ответственный за безопасность эксплуатации вице-президент TEPCO Сакаэ Муто изрек: «…я посчитал, что реализация мероприятий по защите от стихийных бедствий не требует спешки, так как такие катастрофы происходят реже, чем раз в сто лет. Эксплуатация реактора длится меньше» [6]. Похоже, нас призывают ждать еще сто лет, а если «гром грянет» Завтра!? Глава парламентской комиссии Киеси Курокава при обнародовании результатов расследования открыто заявил: «Нужно признать, и это особенно болезненно, что эта катастрофа „сделано в Японии“. Глубинные причины аварии происходят из самой японской культуры: нашего рефлекторного послушания, нашего нежелания сомневаться в руководстве, нашей приверженности «следованию заданной программе», нашего группизма и нашей замкнутости» [7]. Парламентская комиссия прямо назвала катастрофу «рукотворной» (англ. Man-made disaster). Таким образом и здесь «человеческий фактор» стал доминирующим.

  Обширный фактический материал отлично систематизирован и структурирован, логика изложения делает его доступным для понимания как школьниками, студентами так и научными специалистами. Авторы сумели изложить довольно сложный и многоаспектный материал удивительно доступным и четким русским языком, не прибегая к англицизмам, сохранив при этом и научность изложения и увлекательность чтения.

 Эта серия из нескольких книг, пока трех, должна стать не только познавательным чтением для широкой публики, но, что более важно, должна стать обязательным разделом в образовательных курсах университетов, особенно технической направленности. В школьных курсах необходимо показать не только преимущества атомной энергетики или ИИ, но обратить внимание на сопутствующие прогрессу риски. Эта книга настраивает на будущее, призывает растущих разработчиков новых технологий учитывать и прогнозировать как позитивные качества новшеств, но и возможные последствия, если где-то, что-то «пойдет не так».

  Ждем следующую книгу из заявленной серии.

 Список источников

  1. 1. Таиров Р. Илон Маск. Человечеству надо быть осторожным… [Электронный ресурс]. – URL: https://www.forbes.ru/newsroom/milliardery/405911-mask-nazval-samyy-opasnyy-dlya-chelovechestva-iskusstvennyy-intellekt (дата обращения: 12.04.2023 г.)
  2. 2. Азимов А. Я робот [пер. с анг.]. - Москва: Издательство ЭКСМО.- 1950. – с. 39. (Хоровод с.22-33). ISBN 978-5-04-100014-1
  3. 3. Часы Судного дня: кто обновляет и на сколько перевели в 2023 году от 24 января 2023 г. [Электронный ресурс]. – URL: http://ren.tv>longred-chasy-sudnogo-dnia (дата обращения: 28 января 2023 г.)
  4. 4. Hawking S., Russell S., Tegmark M., Wilczek F. Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence - but are we taking AI seriously enough?' Independent  01 May 2014 [Electronic resource]. –  URL: https://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence-but-are-we-taking-ai-seriously-enough-9313474.html (дата обращения11.2022 г).
  5. 5. Хейли Артур. Аэропорт : [роман; пер. с англ.] / Артур Хецйлди. – Москва. – Издательство АСТ. – 2015. – 605 с. ISBN 978-5-17-086144-6.
  6. 6. The Fukushima Daiichi Accident : [англ.] International Atomic Energy Agency Report — Vienna, 2015, Vol. 2.
  7. 7. The official report of The Fukushima Nuclear Accident Independent Investigation Commission. Executive summary / The National Diet of Japan. — 2012,р.9. [Electronic resource]. – URL:  https://reliefweb.int/report/japan/official-report-fukushima-nuclear-accident-independent-investigation-commission  (дата обращения: 28. 04. 2023 г.)

  

Сведения об авторе

Цветкова Валентина Алексеевна – доктор технических наук, профессор, академик Российской академии Естествознания (РАЕ), главный научный сотрудник Библиотеки по естественным наукам Российской академии наук (БЕН РАН), профессор кафедры библиотечно-информационных наук Московского государственного института культуры

Примечания

[1] Международная шкала ядерных событий (англ. INES, сокр. International Nuclear Event Scale) разработана Международным агентством по атомной энергии для унифицированной оценки чрезвычайных ситуаций на объектах гражданской атомной промышленности.

К оглавлению выпуска

история книги

31.08.2023, 204 просмотра.