
Элон Маск пожертвовал миллионы долларов Институту будущего жизни (Future of Life Institute), и сейчас организация направила эти деньги на исследования, которые сделали бы искусственный интеллект “надежным и полезным” (в отличие от Skynet). На этой неделе институт объявил, что присвоит эти гранты 37 исследовательским командам, отобранным из 300 заявок. Команды рассмотрят проблему появления ИИ-убийцы с разных сторон, включая обучение ИИ тому, что люди хотят совмещать интересы людей и роботов, сохраняя контроль над последними.
Институт предоставил краткое изложение программы, выделяя некоторые гранты:
- Три проекта разрабатывают техники, с помощью которых ИИ будет понимать, что мы хотим, анализируя наше настроение. В этих проектах также участвуют представители Оксфордского университета и Калифорнийского университета в Беркли.
- Проект Бени Фалленштайна из Machine Intelligence Research Institute, суть которого в выравнивании интересов людей и сверхразвитых систем.
- Проект, возглавляемый Мануэлой Велосо из Университета Карнеги-Меллона, цель которого заставить ИИ системы объяснять свои решения человеку.
- Исследование Майкла Уэбба из Стэнфордского университета о том, как сделать экономические последствия AI выгодными.
- Проект, возглавляемый Хэзер Рофф, целью которого является сохранение контроля над оружием, которым управляет ИИ.
- Новый центр исследования Оксфорд-Кэмбриджа для обучения ИИ правильной линии поведения.
Весь список победителей, а также описания их проектов, доступны на сайте института.
Около 7 миллионов долларов, полученных от Маска и “Проекта Открытая Благотворительность”, будут разделены между исследовательскими командами. Большая часть проектов может начать работать в сентябре, а институт, в свою очередь, намерен финансировать их до трех лет. Программа также имеет оставшиеся $4 млн, которые будут распределены позднее, когда институт определит наиболее перспективные исследования.
В то время как ведется много разговоров об исследованиях, которые должны предотвратить ситуацию “Терминатор”, институт пытается снизить риск развития подобного сценария. “Опасность сценария “Терминатор” не в том, что он произойдет, а в том, что он связан с тем, что это отвлекает от реальных проблем ИИ”, – сказал президент Института будущего жизни в одном из своих заявлений. “Мы не отвлекаемся, и те 37 команд, поддержанные грантами, должны помочь с решением этих проблем.” Это честное заявление: институт думает о некоторых реальных проблемах, в том числе экономических последствиях появления ИИ, который не должен создавать дополнительное неравенство доходов, лишая людей рабочих мест. Также они рассуждают о том, как должен будет ИИ обрабатывать этические дилеммы, окажись он в ситуации с множеством различных вариантов, в неизбежной автокатастрофе, например.
Но если серьезно, угроза роботов-убийц вполне реальна. Маск, глава компаний Tesla и SpaceX, недвусмысленно дал понять, что размышляет об этом. Он упоминал «Терминатора» в своих рассуждениях об эволюции ИИ и сказал, что искусственный интеллект потенциально “даже более опасен, чем ядерное оружие”. Институт будущего жизни поставил перед собой задачу предотвратить такой ход развития событий и сделать все возможное для того, чтобы ИИ оставался под контролем человека и работал только на благо. Эти первые 37 проектов – лишь начало долгой работы. Многим кажется, что сейчас еще рано думать о подобном, но Маск и остальные учредители FoLI хотят проработать все варианты заранее, задолго до появления сильного ИИ.
