Фото: Brian Snyder / Reuters
Ученые Университета Массачусетса в Амхерсте разработали платформу для создания алгоритмов, которые должны предотвратить опасное поведение машин с искусственным интеллектом (ИИ) и не допустить причинения вреда человеку. Об этом сообщает издание Science Alert.
Исследователи назвали алгоритмы селдоновскими в честь персонажа серии научно-фантастических романов «Основание» Айзека Азимова. Хотя они не дают ИИ понимание морально-этических норм или того, что является благом для человека, они позволяют системе определить, какое поведение является нежелательным, и не допустить его.
В качестве примера ученые приводят использование селдоновских алгоритмов для лечения диабета, когда автоматическая система контролирует инсулиновую помпу. В этом случае нежелательным поведением является такое, какое способствует критически низкому уровню инсулина в крови или гипогликемии. Исследователи также разработали алгоритм для системы прогнозирования среднего балла аттестата у студентов, чтобы избежать гендерных «предрассудков», которые обнаруживались у некоторых других алгоритмов.
В октябре бывший разработчик Google Лара Нолан заявила, что оружие с искусственным интеллектом, способное принимать решение без человека, сможет уничтожить города мира за считанные секунды. Если в одном районе будет находиться много подобных систем, то существует вероятность «внезапной войны», так как они среагируют друг на друга почти моментально.