Что такое хорошо, что такое плохо: будет ли совесть у искусственного интеллекта

Сможет ли искусственный интеллект изучить моральные ценности человеческого общества? Сможет ли принимать решения в ситуациях, когда необходимо взвесить все за и против? Сможет ли развить чувство правильного и неправильного? Короче говоря, будет ли у него совесть? Эти вопросы могут показаться неуместными, учитывая что современные системы ИИ способны выполнять довольно ограниченное число задач. Но по мере развития науки его возможности все больше расширяются.

Мы уже видим, как алгоритмы искусственного интеллекта применяются в областях, где границы «хороших» и «плохих» решений трудно определить, — например, в уголовном правосудии или отборе резюме.

Мы ожидаем, что в будущем ИИ будет заботиться о пожилых людях, обучать наших детей и выполнять множество других задач, требующих человеческой эмпатии и понимания норм морали. Поэтому вопрос осознанности и добросовестности ИИ становится все более острым.

С этим запросом я начал искать книгу (или книги), которая объясняла бы, как у людей формировалась совесть. И дала бы подсказку, какие знания о мозге человека могут помочь в создании совестливого искусственного интеллекта.

Друг предложил мне изучить книгу «Совесть: истоки нравственной интуиции» доктора Патриции Черчленд, нейробиолога, философа и почетного профессора Калифорнийского университета в Сан-Диего.

Книга доктора Черчленд и личная встреча с ней дали мне хорошо понять, каковы масштабы и ограничения науки о мозге. «Совесть» показывает, как далеко мы продвинулись к пониманию связи между физиологией и работой мозга и моральными качествами людей. Также книга проливает свет на то, какой путь нам еще предстоит пройти, чтобы по-настоящему понять, как люди принимают моральные решения.

Книга написана доступным языком и понравится тем, кто заинтересован в изучении биологической основы сознания и размышляет на тему «человечности» искусственного интеллекта.

Ниже очень краткое изложение того, что «Совесть» рассказывает о развитии морального выбора в человеческом мозге. Поскольку именно с него списана модель ИИ, больше знаний о совести поможет нам понять, что необходимо искусственному интеллекту для изучения моральных норм.

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр