150 компаний подписали соглашение о мирном использовании ИИ
Представители 150 компаний, работающих над созданием и усовершенствованием приложений искусственного интеллекта, подписали соглашение, которое должно выступить гарантом того, что создатели умных машин никогда не допустят возможности возникновения угрозы жизни людей.
Документ был подписан на Международной конференции 2018 года по искусственному интеллекту (IJCAI) в Стокгольме, прошедший по эгидой Института будущего (Future of Life Institute). В качестве подписантов выступили более 2400 человек, представляющих 150 компаний из 90 стран и работающих в области искусственного интеллекта и робототехники.
Цель подобного шага – привлечь внимание мировых правительств, академических кругов и промышленности. «Я очень рад видеть, что лидеры в области разработки ИИ переходят от разговоров к действию, реализуя политику, которую политики до сих пор не смогли реализовать», - сказал президент Института будущего, профессор физики Массачусетского технологического института Макс Тегмарк (Max Tegmark).
«ИИ обладает огромным потенциалом для помощи миру — если мы предотвратим в будущем злоупотребление его потенциалом. Наша цель – не превратить ИИ в оружие».
В подписании столь важного документа приняли участие представители Google DeepMind, фонда XPRIZE, компании ClearPath Robotics/OTTO Motors, Европейской ассоциации ИИ, а также предприниматель и изобретатель Илон Маск (Elon Musk).
Одной из задач Института будущего является не допустить появления потенциально опасных машин, которые смогут принять самостоятельное решение об убийстве, будь то один человек или человечество в целом. Однако, г-н Тегмарк подчеркнул, что данное решение не касается современных беспилотных летательных аппаратов, находящиеся под контролем человека, как, впрочем, и автономных систем, которые стоят на защите от возможного применения чужого оружия.
Поводом для создания договора послужил апрельский бойкот Корейского института науки и техники (KAIST) более чем 50 исследователями из 30 стран. Университет KAIST заявил, что откроет лабораторию по созданию ИИ в сотрудничестве с Hanwha Systems, специализирующейся на оборонной промышленности, проигнорировав, тем самым, запрет Организации Объединенных Наций. Эти действия вынудили научного руководителя KAIST - Сун-Чул Сина (Sung-Chul Shin), сделать заявление, что он не будет участвовать в разработке смертоносного автономного оружия. «KAIST не будет проводить какую-либо исследовательскую деятельность, противостоящую человеческому достоинству, включая автономное оружие, не имеющее значимого человеческого контроля». Как высказался профессор Университета Нового Южного Уэльса (UNSW), специализирующийся в области искусственного интеллекта, Тоби Уолш (Toby Walsh): «У машин нет этики, чтобы решать кому жить, а кому умирать. Я призываю вас и ваши организации приложить все усилия, чтобы уберечь мир от подобной войны».