Знание-сила, 2009 № 07 (985) - страница 6
Андреас Маттиас: Вообще говоря, нет. Я сам несколько лет занимался программированием в Кассельском университете. Сделать подобное заявление меня побудил не страх перед роботами, а тот факт, что машины играют все большую роль в нашем обществе, поскольку начинают самостоятельно принимать решения. И если они допускают ошибки, то нужно заранее обговорить, кто будет отвечать за их промахи.
— Но машину ведь сделал человек? Почему бы не наказать программиста, разработавшего ее?
А.М. Нет, это в семидесятые годы мы могли думать, что раз в машину вложили определенную программу, она будет действовать строго в ее рамках. За эти десятилетия программирование изменилось. Сегодня вместо четких, конкретных команд часто используются так называемые нейрональные сети, созданные по примеру структур, существующих в головном мозге человека. Подобная сеть способна к самообучению, и мы уже не можем судить о том, чему научилась машина.
Она сама обучается, тренируется — она выходит за рамки вложенных в нее программ. От человека же она получает только определенный багаж знаний.
— Вы рассуждаете так, словно задались целью избавить производителей роботов от необходимости выплачивать огромные суммы в счет компенсации за причиненный ущерб.
А.М. Я исхожу из того, что наша правовая система должна быть справедливой. Для меня справедливость — это когда кто-то несет ответственность за поступок, совершить или не совершить который было всецело в его власти. Производители роботов уже не могут досконально контролировать выпущенные ими машины. Так что взваливать на них ответственность за все совершенные роботами поступки было бы несправедливо. Возьмите, например, марсоход, который благодаря вложенному в него программному обеспечению сам учится маневрировать. Если, например, в тот момент, когда связь с Землей нарушена, он затеет какой-то маневр и въедет прямиком в яму, то стоит ли винить тех, кто разрабатывал программное обеспечение?
— Почему нет? Может быть, они просто написали плохую программу?
А.М. Я не думаю, что можно создать машину, которая не допускала бы вообще никаких ошибок. Мы, люди, тоже их делаем, и сами же отвечаем за это. Мы не можем требовать, чтобы спрашивали с наших учителей, с родителей, а не с нас, — с определенного возраста мы несем ответственность за все, что натворили. Вот так же обстоит дело и с машиной.
С какого-то момента ее производитель уже не может отвечать за то, чему она научилась сама. Ведь она теперь уже не та, что была в момент завершения заводской сборки.
— Вы постоянно говорите об ответственности. Что же, по-вашему, надо делать с машиной в том или ином конкретном случае?
А.М. Она могла бы сама оплатить причиненный ей ущерб. Ведь она выполняет какую-то работу, значит, часть заработанных ей средств можно перевести на страховой счет, из которого и будет выплачена компенсация.
— Вы говорите также об уголовном законодательстве для роботов. Как их предлагаете наказывать?
А.М. Перепрограммировать!
— Объясните подробнее.
А.М. Главные цели нашего уголовного законодательства — это, во-первых, перевоспитание преступника, а во-вторых, его изоляция на некоторый срок. Применительно к машине это означает, что нужно просто улучшить ее программу. Наказывать машину гораздо эффективнее, чем человека. Никто не гарантирует вам, что преступник после пяти лет, проведенных в заключении, выйдет на свободу совершенно перевоспитавшимся. Машина же после перепрограммирования уж точно не допустит прежних ошибок. Так что нам не нужно сажать робота под арест — надо всего лишь подрегулировать его программное обеспечение.
— Вы также утверждаете, что к роботам, способным чему-либо учиться, со временем начнут относиться как к неким существам. Может быть, прикажете еще наделить их и избирательными правами? А кстати, можно будет отправить роботов на металлолом?
А.М. Время для подобных разговоров пока еще не пришло, все это — темы научной фантастики. Мы же для начала должны добиться того, чтобы автономно действующие машины отвечали за свои поступки. Какими правами будут они наделены, это — вопрос будущего.