Технологии против человека - страница 9
. Если мы можем создать ИИ с уровнем IQ 50, что же остановит нас от разработки ИИ с IQ 50 000 и что произойдет, если мы это сделаем?
К счастью, суперинтеллект еще не является предметом для беспокойства в нашем ближайшем будущем. Однако у нас и без него проблем хватает: отслеживание нашей жизни в интернете, скрытые камеры повсеместно, ослабление конфиденциальности, потеря анонимности, хищение электронных личных данных, цифровая безопасность. Поэтому я и считаю, что основа для будущего (оптимистичного или антиутопического) закладывается здесь и сейчас.
Мы находимся на критически важном этапе и должны целостно оценивать ситуацию и проявлять большую дальновидность в наших действиях, осуществляя строгий надзор за технологиями, которые могут в дальнейшем получить над нами бо́льшую власть, чем мы могли себе представить.
Мы больше не можем позволить себе существовать по принципу «поживем – увидим», если и дальше хотим сохранять контроль над своей жизнью и ее развитием. Вопрос, заслуживающий нашего внимания, заключается в том, чтобы оставаться и в будущем людьми, пока мы будем заниматься развитием технологий, изменяющим человечество навсегда.
Мы не должны позволять свободным рынкам, предпринимателям и военным организациям принимать решения за нас. Будущее человечества не должно строиться в соответствии с устаревшими порядками индустриального общества восьмидесятых годов, в котором за высшее благо почитались прибыль и рост любой ценой. Несмотря на то что технологии являются источниками огромных доходов и генерируют значительную прибыль, ни Кремниевая долина, ни наиболее технологизированные страны не должны становиться «центром управления человечества».
К счастью, в настоящее время еще соблюдается принцип 90/10: 90 % возможностей, которые открывают нам новые технологии, могут пойти на пользу человечеству, в то время как лишь 10 % уже оцениваются как негативные и вызывают беспокойство. Если нам удастся и дальше сохранить этот баланс или даже поднять соотношение до 98/2, то наши усилия будут не напрасны. В то же время эти проблемные 10 % могут быстро возрасти до 50 % (например, по неосторожности) или выше, если мы не придем к согласию по поводу того, как именно будем использовать технологии на благо человечества. Как видим, сейчас точно не самое лучшее время, чтобы пускать ситуацию на самотек и отстраненно наблюдать за ее развитием.
ИИ – первая движущая сила в области экспоненциальных технологий; ее можно определить как разработку машин (программ или роботов), обладающих интеллектом и способных к самостоятельному обучению, т. е. это машины, способные думать как люди. Ожидается, что способности ИИ будут развиваться в два раза быстрее, чем остальные технологии, превосходя даже закон Мура и рост вычислительных мощностей>15.
На сегодняшний день самая высокая опасность, связанная с искусственным интеллектом, заключается в том, что люди слишком рано начинают верить, что они его понимают.
– Элиезер Юдковский[14],>16
Спутником ИИ на пути кардинальных изменений является геномная инженерия (human genom engineering), которая способна изменять ДНК человека так, чтобы положить конец некоторым или даже всем болезням, усовершенствовать наше тело и, возможно, даже остановить смерть. Все эти процессы будут возможны благодаря ИИ.
Эти два фактора окажут значительное влияние на жизнь человечества уже в ближайшие двадцать лет. Данная книга посвящена в основном ИИ и глубокому обучению, так как они уже сейчас имеют решающее значение для будущего и выступают ведущими факторами в развитии таких революционных технологий и направлений, как нанотехнологии, геномная инженерия и материаловедение.
Рэй Курцвейл, доктор наук и технический директор Google, оказавший значительное влияние на футурологию в общем и мою работу в частности, занимает позицию, которую я в этой книге постараюсь оспорить. Он предсказывает, что к 2025 году компьютеры превзойдут вычислительную мощность человеческого мозга, а к 2050-му отдельно взятый компьютер превзойдет мощность всех человеческих мозгов вместе взятых