Наш ответ Гогену. Часть восьмая: от первых ламповых компьютеров до «Я увидел лицо Бога»

Страницы:  1

Ответить
 

Professor Seleznov


Предыдущую статью данной серии можно почитать здесь.
Начиная с середины прошлого века компьютеры тихой сапой стали постепенно становиться незаменимой частью технологий наиболее развитых стран. Естественно, во многом этому способствовала Вторая мировая. Для военных изделий нужно было много чего рассчитывать, причем, максимально быстро - кто не успел, тот проиграл!
Про часть подобных расчетов я уже писал в предыдущей статье. Ещё один пример это компьютер [url=https://ru.wikipedia.org/wiki/Colossus_(%D0%BA%D0%BE%D0%BC%D0%BF%D1%8C%D1%8E%D1%82%D0%B5%D1%80)]Colossus[/url], который мог решать лишь одну задачу - взлом кода немецкой [url=https://ru.wikipedia.org/wiki/%D0%9B%D0%BE%D1%80%D0%B5%D0%BD%D1%86_(%D1%88%D0%B8%D1%84%D1%80%D0%BE%D0%B2%D0%B0%D0%BB%D1%8C%D0%BD%D0%B0%D1%8F_%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%B0)#:~:text=Lorenz%2DChiffre%2C%20Schl%C3%BCsselzusatz%3B%20Lorenz,%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%B0%D0%BD%20%D0%BD%D0%B0%20%D0%BF%D0%BE%D1%82%D0%BE%D1%87%D0%BD%D0%BE%D0%BC%20%D1%88%D0%B8%D1%84%D1%80%D0%B5%20%D0%92%D0%B5%D1%80%D0%BD%D0%B0%D0%BC%D0%B0.]шифровальной машины "Лоренц"[/url]. Она не настолько знаменита, как "Энигма", но тоже попортила союзникам много крови. Метод ее шифрования, в принципе, стал известен англичанам достаточно быстро, но сам процесс расшифровки требовал много ручных вычислений, и мог занимать до нескольких недель. Понятно, что при такой скорости дешифрования сама информация, содержащаяся в сообщении, могла к окончанию процесса уже просто потерять актуальность.
Для ускорения решения этой очень важной для военных заждачи в 1943 году и был разработан и, в итоге, собран менее, чем за год, специализированный ламповый компьютер. Это позволило сократить время дешифровки до вполне приемлемых нескольких часов. Первое же расшифрованное с помощью Колосса сообщение, переданное из Афин в Берлин, дало антигитлеровской коалиции очень важную информацию - немцы поверили в специально подкинутую ему дезинформацию, что высадка десанта союзников планируется не в Нормандии, а в Па-де-Кале.
Уже летом 1944 года с помощью подключившегося к работам Алана Тьюринга была собрана модернизированная версия компьютера - Colossus Mark 2. Она вычисляла в пять раз быстрее предшественницы, и уже могла работать по задаваемым оператором программам. Сами программы, как и на выпущенном примерно одновременно с ней ENIAC-е, задавались с помощью расположенных на стройках переключателей.
pic
Colossus Mark 2 и его операторы из женского подразделения королевских военно-морских сил Великобритании. Да, как и в США, в Великобритании первыми операторами ЭВМ и программистами были женщины. Фото из Вики.
Один из видов технологий, который резко рванул вперед за время и после войны было ракетостроение. Ещё в средние века китайцы экспериментировали с применением бумажных ракет на порохе для фейерверков и военных целей, но дальнейшего распространения идея тогда не получила. Новые эксперименты в этом направлении, но уже на совсем другом технологическом уровне, возобновились во второй половине 20-х годов прошлого века. А уже в 1942 году немецкая ракета Фау-2 во время испытаний достигла высоты около 100 км., которая считается условной границей космического пространства.
Окончательную точку в процессе освоения человечеством ближнего космоса поставил запуск СССР первого спутника Земли в октябре 1957 года и первого космонавта с известной теперь всему миру фамилией в апреле 1961 года. Ну а в июле 1969 года человечество в лице американских астронавтов уже шагало по поверхности Луны. Космические полеты вряд ли были бы возможны без появления ЭВМ. Они применялись уже при расчете траекторий первых баллистических ракет и спутников, ну а ко времени высадки на Луну без них вообще по сути нельзя было и шагу ступить.
В частности, в течении миссии Аполлон кроме основного компьютерного комплекса на основе IBM System/360 Model 75, расположенного в ЦУП-е в Хьюстоне, использовались также компьютеры и вычислительные устройства непосредственно на борту космического аппарата. Ими были два управляющих бортовых компьютера AGC (Apollo Guidance Computer) - по одному одинаковому модулю, но с разным ПО на командном и лунном модулях, резервная компьютеризированная система наведения на лунном модуле на случай отказа основной AGS (Abort Guidance System)и компьютер на ракеты-носителе Сатурн-5, управляющий ею на этапе выведения ракеты на орбиту LVDC (Launch Vehicle Digital Computer).
Сама посадка на Луну проводилась комбинированно- примерно до высоты 150 метров в автоматическом режиме, а далее - в ручном. При этом, в процессе посадки основной бортовой компьютер корабля Аполлон - 11 начал периодически выдавать ошибку о перегрузке из-за слишком большого объема данных, поступающих от радара. К счастью, возможность возникновения подобной проблемы была предусмотрена заранее, и компьютер просто немного замедлил частоту коррекции работы двигателей с 10 до 9 циклов в секунду, что было не критично. Более подробно о компьютерной стороне миссий Аполлонов на Хабре уже неоднократно рассказывалось, вот, например, одна из таких статей.
AGC и AGS уже работали на микросхемах, LVDC, которому приходилось трудиться в менее комфортных условиях - на транзисторах. Массовый переход элементной базы с ламп на более надежные и быстродействующие транзисторы произошел примерно в середине 50-х годов, а еще через десяток лет, то есть, примерно с середины 60-х, начался массовый переход на еще более компактные и быстродействующие интегральные схемы. С тех пор основной тренд заключался лишь в уменьшении шаг за шагом типового размера действующих элементов этих микросхем, что, как известно, своевременно подметил инженер фирмы IBM Гордон Мур.
pic
Наглядное представление так называемого закона Мура, взято из Вики.
Как видно, тенденция удвоения числа элементов на единицу площади в микросхемах продержалась фактически почти пол века, и только лет 15 назад стала потихонечку подтормаживать. Если на границе 40-х и 50-х годов ЭВМ могли уместиться лишь на площадях, сравнимых со спортзалом, то к середине 60-х они уже умещались на одной стройке размером со средний шкаф, а к середине 70-х дело дошло до того, что устройства с весьма нехилой для того времени вычислительной мощностью вполне помещались на рабочем столе.
Первый персональный компьютер Altair 8800 был выпущен в 1975 году и сразу же стал одной из любимых игрушек для гиков - только за первые три месяца компания, которая их производила, получила 4000 заявок. И это не смотря на то, что если не размерами, то интерфейсом ввода-вывода первая версия изделия напоминала первые ламповые компьютеры второй половины 40-х годов. Ввод программ и данных осуществлялся с помощью переключателей (0/1) на его передней панели, а результат выводился на светодиодной панели в двоичной системе счисления. Объем доступной пользователю оперативной памяти размером в 256 байт тоже не выглядел особенно возбуждающим. И всё же, изделия продавались на расхват, как горячие пирожки.
pic
Передняя панель Altair 8800, которая выступала одновременно как в качестве клавиатуры, так и в качестве монитора. Фото из Вики.
Что касается общего технологического развития во второй половине 20 века, то основная тенденция была, пожалуй, не столько в каких-то новых прорывах, сколько в постепенном улучшении изделий, в том числе, благодаря применению вычислительной техники как при соответствующих расчетах при их разработке, так и непосредственном встраивании в них микропроцессоров. Как промышленные станки, так и бытовые устройства, становились все надежнее, умнее и экономичнее.
В 60-е и 70-е годы были сделаны первые попытки написания программ, которые бы имитировали те или иные аспекты деятельности человека. Это были, например, достаточно незатейливые чат-боты [url=https://ru.wikipedia.org/wiki/%D0%AD%D0%BB%D0%B8%D0%B7%D0%B0_(%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B0)?ysclid=moboynv0x6331372841]Элиза[/url] и Пэрри. Тем не менее, иногда им даже удавалось пройти пресловутый тест Тьюринга.
Еще ранее компьютеры научились играть в различные игры. Пионером здесь, пожалуй, можно считать американца [url=https://ru.wikipedia.org/wiki/%D0%A1%D1%8D%D0%BC%D1%8E%D1%8D%D0%BB,_%D0%90%D1%80%D1%82%D1%83%D1%80]Артура Самуэля[/url], который еще в бородатом 1952 году создал первую версию своей программы игры в шашки, и продолжал совершенствовать ее вплоть до середины 70-х годов. Многие методы и приемы (дебютные справочники, метод перебора в поисках лучшего хода на основе алгоритма минимакса, самообучение путем игры программы самой с собой и т.д.), опробованные им при написании и последующем совершенствовании программы, были впоследствии использованы и при создании программ, играющих в другие, более сложные игры (шахматы, го и т.д.).
В 1962 году Самуэль предложил сыграть со своей программой чемпиону по шашкам штата Коннектикут, который в то время считался четвертым по силе игроком в США. Программа выиграла матч, что можно считать отправной точкой последующего триумфального шествия играющих программ в поединках с белковыми игроками.
В 1974 году состоялся первый чемпионат по игре в шахматы среди машин. На нем победила отечественная программа Каисса, в разработке которой участвовал, в том числе, и один из хабровчан - [url=https://ru.wikipedia.org/wiki/%D0%90%D1%80%D0%BB%D0%B0%D0%B7%D0%B0%D1%80%D0%BE%D0%B2,_%D0%92%D0%BB%D0%B0%D0%B4%D0%B8%D0%BC%D0%B8%D1%80_%D0%9B%D1%8C%D0%B2%D0%BE%D0%B2%D0%B8%D1%87]В.Л.Арлазаров[/url]. Насколько знаю, он до сих пор активен и по прежнему трудится в области ИИ. Пользуясь случаем, хочу пожелать ему здоровья и дальнейших творческих успехов! Увы, Каисса во время чемпионата работала не на отечественном, а на импортном железе - английском мейнфрейме English Electric System 4, видимо, постепенное отставание СССР в аппаратной области уже тогда давало о себе знать.
С середины 70-х годов прогресс шахматных программ шел не очень заметными темпами. По оценке специалистов, Каисса играла примерно на уровне 3 разряда. Через 10 лет, к середине 80-х годов, их уровень поднялся, в лучшем случае, до второго разряда. Казалось, что прогресс идет черепашьими темпами, или вообще застопорился. На пресс-конференции после завоевания звания чемпиона мира по шахматам в 1985 году на вопрос, когда ИИ сможет обыграть чемпиона мира, [url=https://ru.wikipedia.org/wiki/%D0%9A%D0%B0%D1%81%D0%BF%D0%B0%D1%80%D0%BE%D0%B2,_%D0%93%D0%B0%D1%80%D1%80%D0%B8_%D0%9A%D0%B8%D0%BC%D0%BE%D0%B2%D0%B8%D1%87]Гарри Каспаров[/url] достаточно уверенно ответил - никогда, потому, что у ИИ нет, да и в принципе не может быть, интуиции.
Но с течением времени его мнение постепенно стало меняться. В 1990 году он анализировал с помощью программы одну эндшпильную позицию, которая выглядела абсолютно ничейной. Но, к его удивлению, программа утверждала, что белые в ней выигрывают в 76 (!) ходов. Гарри не мог в это поверить, и решил попробовал играть за черных. Первые несколько ходов позиция по прежнему выглядела ничейной, но через некоторое время на горизонте появились легкие облачка, которые, по мере приближения, постепенно сгущались, с каждым ходом позиция черных становилась чуть-чуть слабее. Закончилось это, в итоге, предсказанным компьютером на много десятков ходов заранее финалом. На Каспарова это произвело сильное впечатление, как он потом описал свои ощущения - "Я увидел лицо Бога".
Время и далее шло неумолимо, компьютеры играли все лучше и лучше, и в 1994 году произошла первая сенсация, на блиц-турнире в Мюнхене Каспаров впервые проиграл программе [url=https://en.wikipedia.org/wiki/Fritz_(chess)]Ftritz[/url] 3, причем, игравшей на отнюдь не самом крутом железе - обычном рядовом ПК с процессором Pentium. Игравший белыми Каспаров, видимо, как раз положившись на интуицию, ибо в блице детально просчитать все варианты невозможно, отдал качество в обмен на казавшуюся ему перспективной атаку на черного короля. Но Фриц защищался хладнокровно и точно, вернув в конце концов качество, но оставшись после этого с двумя проходными пешками. Каспарову пришлось признать свое поражение.
Уже через пару лет, в 1996 году, состоялся первый матч Каспарова с суперкомпьютером IBM Deep Blue, специально спроектированным для игры в шахматы на высшем уровне. Первую партию игравший черными Каспаров проиграл, но в итоге сумел выиграть матч, одержав три победы и сведя две партии в ничью. В следующем году состоялся матч-реванш, который закончился поражением Каспарова со счетом 2.5 : 3.5. После окончания матча Каспаров косвенно обвинил IBM в жульничестве, намекая, что часть ходов, по его мнению, не могла быть вычислена компьютером, а выполнялась по подсказкам сильного шахматиста. Впрочем, еще через десяток лет, когда уже стало окончательно ясно, что даже сильнейшие шахматисты планеты больше не могут играть на равных с компьютерами, он все же признал, что, видимо, тогда был не прав.
pic
Наверное, сама известная фотография с матча 1997 года. Взято с ресурса afisha.london/event
Еще одной областью, в которой пытались экспериментировать инженеры и программисты 20 века, было автономное вождение автомобилей. Так, в 1977 году в Японии был создан автономный автомобиль, способный при наличии дорожной разметки безопасно двигаться со скоростью до 30 км/ч. Для ориентации в пространстве в нем были две камеры на борту, видеопоток с которых обрабатывался аналоговыми устройствами. А менее, чем через десяток лет, оснащенный камерами и компьютерами фургон Мерседес-Бенц, детище исследователей из мюнхенского университета, уже мог гонять по пустым автобанам на скорости до 96 км/ч. Естественно, до жестких требований, накладываемых реальной дорожной обстановкой, было ещё далеко, да и оборудование занимало чуть ли не пол автомобиля, но, как говорится, начало было положено. Более подробно о развитии беспилотного автотранспорта можно почитать в соответствующем обзоре на Хабре.
В начале 70-х годов начало так же развиваться еще одно направление ИИ - экспертные системы. Идея была в том, что бы специалист (или группа специалистов) в какой-то области передал свои неформализованные знания о ней компьютеризированной системе, которая могла бы при необходимости его заменить. Знания представлялись в виде графа, а что бы добраться до ответа экспертной системы, надо было ответить на ряд вопросов. Наибольшую известность в 70-е годы получила экспертная система MYCIN, позволяющая диагностировать признаки наличия бактериального заражения и выдавать рекомендации по его лечению антибиотиками, ежели таковое будет обнаружено (название многих антибиотиков включает суффикс "мицин", отсюда и название системы).
Соответствующая база знаний системы содержала около 600 правил вывода и позволяла выдавать предполагаемый диагноз и выписывать соответствующую процедуру лечения в зависимости от особенностей организма пациента. Работа происходила в виде ответов на задаваемые системой вопросы. Ответы могли быть только бинарными (да/нет). В итоге, после обучения экспертная система MYCIN с первого раза предлагала правильную, в данном случае, терапию, в 69% случаев, что было лучше, чем у среднестатистического врача-эксперта. К сожалению, система в итоге так и не вышла в "продакшен", в том числе, и из-за юридических проблем. Было непонятно, на ком будет лежать ответственность в случае ошибки системы, приведшей к тяжелым последствиям.
Возможно, именно появление первых систем ИИ, которые были еще очень несовершенны, но их потенциал уже начал просматриваться, и привели к появлению первого в истории ИИ, да и вообще, всего технологического общества, луддита 20-го века. Его звали [url=https://ru.wikipedia.org/wiki/%D0%9A%D0%B0%D1%87%D0%B8%D0%BD%D1%81%D0%BA%D0%B8%D0%B9,_%D0%A2%D0%B5%D0%BE%D0%B4%D0%BE%D1%80?ysclid=momm5lfxvc781814613]Теодор Качинский[/url], но более он известен по своему прозвищу - Унабомбер. Качинский с детства считался вундеркиндом, тестирование, проведенное после окончания пятого класса, показало для него феноменальный уровень IQ, равный 167, что позволило ему перейти сразу в седьмой класс и в итоге поступить в Гарвард уже в 16 лет. Защитив докторскую диссертацию на тему "Граничные функции" в 1967 году в возрасте 25 лет Качинский получил в университете Беркли позицию ассистента-профессора, это был самый молодой на тот период времени профессор за всю предыдущую историю этого университета. Проработав в университете лишь около полутора лет, Качинский неожиданно уволился.
pic
Качинский - старший преподаватель в Беркли, 1968 год. Фото из Вики.
Покинув Калифорнию подающий до этого большие надежды математик навсегда завязал с официальной наукой. Вначале он жил в доме своих родителей перебиваясь случайными заработками, а пару лет спустя построил себе в штате Монтана стоящую на отшибе хижину, в которой, в основном, и прожил остаток жизни вплоть до своего ареста без электричества и водопровода. Он все больше ненавидел цивилизацию, которая не давала ему жить в единении с природой. Движений зеленых и антиглобалистов, тогда, по существу, еще не было, они лишь зарождалось, да и вряд ли бы он к ним примкнул, ибо по натуре был нелюдимым одиночкой. У него была своя борьба.
Начиная с 1978 года он начинает изготавливать и посылать по почте самодельные бомбы. Его целями были, в основном, ученые, владельцы магазинов, продававших компьютеры, и топ менеджеры ряда компаний, которых он считал основными движущими силами наступающей на него технологической цивилизации. Всего от его бомб погибло 3 человека, и еще 23 было ранено.
Долгое время ФБР не могло выйти на след террориста, но им помог он сам. В 1995 году Качинский разослал по разным адресатам письма, в которых требовал опубликовать написанное им эссе - "Индустриальное общество и его будущее", которое впоследствии стало известно как "Манифест Унамбомбера". В случае его публикации он обещал прекратить террористическую деятельность. Эссе в итоге было опубликовано газетами The New York Times и Washington Post. Прочитав его в газете, родной брат Качинского нашел в нем много общего с идеями и стилем изложения мыслей своего брата с которым, к тому времени, не общался уже много лет. Он нанял частного детектива для проверки своих подозрений, и тот, после предварительного расследования, пришел к выводу об их обоснованности и сообщил в полицию.
Нас в манифесте Унабомбера интересует, прежде всего, его аргументация против развития ИИ. При этом, он рассматривал две основные возможности. Первая, это развитие ИИ, включая роботов, не ограниченное никакими рамками. Он считал, что в этом случае очень быстро наша цивилизация достигнет критической точки, после которой развитие настолько ускорится и усложнится, что люди вообще перестанут понимать, что происходит. Даже при желании, они в этой ситуации уже не смогут "выключить рубильник", так как это будет равносильно их собственной гибели. Таким образом, дальнейшая судьба человечества будет всецело зависеть только от "доброй воли" ИИ. По сути, вышеизложенное, весьма близко к одному из вариантов описания наступления Технологической Сингулярности, правда, этот термин тогда еще не был распространен. Мы остановимся на его обсуждении в следующей статье.
Вторая рассмотренная Качинским возможность заключается в том, что "элита" оставит контроль над ИИ за собой, и благодаря ему на Земле наступит как бы эра благоденствия, можно сказать, рай. Но сразу возникают два вопроса. Первый - а не захочет ли "элита" рано или поздно избавиться от большей части человечества, ведь она ей, по большому счету, теперь не нужна - все делают роботы под руководством ИИ. Но даже если "элита" проявит гуманизм, не придет ли человечеству конец по другой причине - оно просто выродится, превратившись в некое подобие домашних животных, которых кормят и развлекают роботы, а все решения за которых принимает узкий слой той самой "элиты".
По итогам своей террористической деятельности Унабомбер был приговорен к пожизненному тюремному заключению и в итоге умер в тюрьме в 2023 году. По некоторым данным, он совершил самоубийство. Если кто-то заинтересовался этой темой, на Хабре про Качинского есть отдельная статья.
Во второй половине 20-го века стали активно развиваться системы распознавания. Пионером здесь был [url=https://ru.wikipedia.org/wiki/%D0%A0%D0%BE%D0%B7%D0%B5%D0%BD%D0%B1%D0%BB%D0%B0%D1%82%D1%82,_%D0%A4%D1%80%D1%8D%D0%BD%D0%BA]Фрэнк Розенблатт[/url], предложивший использовать для разработки системы распознавания простых изображений данные о строении и функционировании нервной системы, известные к тому времени. Предполагалось, что разработанный им нейрокомпьютер Mark I Perception, который у нас обычно называют просто [url=https://ru.wikipedia.org/wiki/%D0%9F%D0%B5%D1%80%D1%86%D0%B5%D0%BF%D1%82%D1%80%D0%BE%D0%BD#:~:text=%D0%9F%D0%B5%D1%80%D1%86%D0%B5%D0%BF%D1%82%D1%80%D0%BE%CC%81%D0%BD%20(%D0%B8%D0%BB%D0%B8%20%D0%BF%D0%B5%D1%80%D1%81%D0%B5%D0%BF%D1%82%D1%80%D0%BE%D0%BD%20(%D0%B0%D0%BD%D0%B3%D0%BB.,%2D1%C2%BB%20%D0%B2%201960%20%D0%B3%D0%BE%D0%B4%D1%83.]Перцептрон[/url], сможет распознавать простые образы. После тестирования модели изделия на компьютере IBM 704 он в конце 50-х годов собрал работающий экземпляр. Он имел на входе матрицу из 400 фотоэлементов (квадрат 20x20), промежуточный слой из 512 "нейронов" и выходной массив из восьми "нейронов". Как предполагалось, после обучения, аппарат сможет классифицировать простые бинарные образы, транслируемые на вход, на, максимум, 8 классов.
pic
Нехитрая схема работы Перцептрона Розенблатта. Картинка из Вики.
Входные элементы физически соединялись с элементами промежуточного слоя с помощью проводов, причем, соединения были случайными (для выбора соединений использовался датчик случайных чисел). При обучении не использовался к тому времени еще неизвестный алгоритм обратного распространения ошибки, веса соединений "нейронов" промежуточного слоя с выходным слоем изменялись с помощью потенциометров и настраивались на этапе обучения. Итоговая точность распознавания не особо впечатляла. Если простые геометрические фигуры (квадраты, треугольники, окружности и т.д.) распознавались с точностью 90-95%, то буквы латинского алфавита, даже если использовался один и тот же шрифт, а ориентация и размер букв были фиксированы, с точностью не выше 80%.
После некоторого застоя, интерес к нейросетевым технологиям опять повысился в 70-е годы, когда сразу в нескольких независимых работах был предложен алгоритм обучения, основанный на обратном распространения ошибки (Back Propogation), но в практических целях данная архитектура нейросетей начала использоваться лишь ближе к концу 80-х, когда скорость ПК стала позволять производить необходимые расчеты за разумное время. Данное решение оказалось достаточно эффективным, поэтому, начиная с 90-х годов, началось практически непрерывное развитие нейросетевых архитектур, подпитываемое, в том числе, все увеличивающимися аппаратными возможностями железа.
Следующим шагом стало появление сверточных нейросетей (CNN). Эту архитектуру, ориентированную на более эффективное распознавание образов, предложил в 1988 году французский исследователь[url=https://ru.wikipedia.org/wiki/%D0%9B%D0%B5%D0%BA%D1%83%D0%BD,_%D0%AF%D0%BD#:~:text=%D0%AF%D0%BD%20%D0%9B%D0%B5%D0%BA%D0%B5%D0%BD%20(%D0%B0%D0%BD%D0%B3%D0%BB.,%D1%80%D0%B0%D1%81%D0%BF%D0%BE%D0%B7%D0%BD%D0%B0%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F%20%D1%81%D0%B8%D0%BC%D0%B2%D0%BE%D0%BB%D0%BE%D0%B2%20%D0%B8%20%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE%20%D0%B7%D1%80%D0%B5%D0%BD%D0%B8%D1%8F.]Ян Лекун[/url]. Она оказалась очень удобной. Если до этого инженерам приходилось самим придумывать эвристические признаки, адекватно описывающие, например, на изображениях, искомые объекты (автор сам потратил на данное занятие немало времени), то сверточные сети уже делали это самостоятельно. Особенное распространение они получили в 21-м веке, так как в силу особенностей используемого в них алгоритма, основанного на операциях перемножения матриц, эти сети особенно эффективно реализовывались на графических картах, выпуск которых в промышленных масштабах к этому времени уже был налажен для ускорения работы становящихся все более популярными "стрелялок" и "бродилок".
Следующим этапом стали рекуррентные сети (RNN). Их появление принято отсчитывать от вышедшей в 1982 году статьи [url=https://ru.wikipedia.org/wiki/%D0%A5%D0%BE%D0%BF%D1%84%D0%B8%D0%BB%D0%B4,_%D0%94%D0%B6%D0%BE%D0%BD]Джона Хопфилда[/url], но активное использование, в связи с достаточно тяжелым в вычислительном плане алгоритмом, началось лишь ближе к концу первой декады 21-го века. Если сверточные сети работают только с статичной информацией, то рекуррентные сети могут обрабатывать информацию в динамике, например, распознавать непрерывную речь, видеопоток, или рукописный текст, состоящий из множества написанных последовательно букв, складывающихся в слова и предложения.
Вообще, вторую половину 20-го века можно назвать временем сетей. Про те, что моделировались внутри компов, уже написано выше. Но, несомненно, одним из самых значимых событий второй половины 20-го века стало появление всемирной сети Интернет. Ее предшественниками можно считать телеграф и телетайп. Изначально в налаживании быстрой и устойчивой к локальным повреждениям связи, которая работала бы в реальном масштабе времени, были заинтересованы военные, в первую очередь, конечно, в СССР и США. Считается, что исходно концепция сети связи, которая бы работала децентрализованно, благодаря чему даже при уничтожении части входящих в нее линий и компьютеров, она могла бы продолжать функционировать, была выдвинута сотрудниками Массачусетского технологического института. Благодаря указанной децентрализации, гораздо надежнее становилась и сохранность данных, которые могли быть распределены на разных узлах системы.
На практике указанные принципы были впервые использованы для построения внутренней сети управления перспективных исследовательских проектов Министерства обороны США, созданного в 1958 году как ответ на запуск СССР годом ранее первого искусственного спутника Земли. Сейчас оно широко известно как DARPA, а в то время (60-е годы прошлого века) еще называлось ARPA (Advanced Research Projects Agency). Соответственно, и первая сеть, из которой, как многие считают, а итоге вырос весь Интернет, называлась незамысловато - ARPANET .
29 октября 1969 года в 21:00 между двумя первыми узлами сети ARPANET, находившимися на расстоянии в 640 км, прошел первый обмен данными. Эту дату можно условно считать днем рождения сети Интернет. Дальше все покатилось достаточно стремительно: в 1971 году появилась электронная почта, в 1973 сеть стала международной, в 1983 году появился протокол TCP/IP, в 1984 была внедрена система доменных имен (DNS), в 1989 в ЦЕРН был разработан протокол HTTP и язык HTML, соответственно, появилась возможность создавать первые интернет сайты. Возможность подключения к интернету по телефонной линии (dialup access) появилась в 1990 году. Наконец, в 1993 году появился первый веб-броузер NCSA Mosaic, что, можно условно считать появлением всемирной паутины WWW такой, какую мы все знаем.
Естественно, появилась куча компаний, которые хотели подзаработать на новом хайпе, но, как это обычно и бывает, знаменитый "крах дот-комов" в некогда столь ожидаемом 2000 году (в 60-е и 70-е годы рубеж 20 и 21 веков многим фантастам, да и немалому количеству вполне серьезных ученых, виделся каким-то полуфантастическим временем, когда кругом будут сновать роботы, вся энергетика будет основана на экологически чистом термоядерном синтезе, на Луне вовсю будут работать вахтовым методом люди, да и на Марс слетать можно будет не намного сложнее, чем долететь от Нью-Йорка до Парижа) серьезно охладил пыл многих инвесторов.
pic
Так называемый "Крах дот-комов". За два с половиной года индекс Nasdaq Composite обвалился примерно в 5 раз. Некоторые считают, что скоро подобное может случится и с акциями компаний, поставивших на скорое появление ASI. Поглядим.) График с ресурса medium.com
Впрочем, это был лишь эпизод - в глобальном масштабе в конечном итоге "отряд не заметил потери бойца".-Источник
 
Loading...
Error