>Автомат, не способный себе объяснить свою программу, свободным себя вряд ли ощутит.
Мне кажется, это тупиковое определение. Я не могу сейчас точно этого доказать, но кажется, что количество информации, нужное для полного понимания функционирования "интеллектуальной системы" (назовем это так) как минимум не меньше, чем количество информации которое эта система в себе содержит. Соответственно, никакой вычислитель не сможет содержать в себе полную модель себя _и еще хоть что-то кроме того_.
Хотя нет, даже, кажется, могу доказать: есть в computer science теорема о том, что невозможно создать программу, которая для любой программы сможет предсказать зацикливается ли она на данном наборе данных. То есть, более просто, невозможно создать такую программу, которая для любой программы способна полностью спрогнозировать ее поведение.
То есть любой ИИ будет лишь частично понимать свое функционирование.
no subject
Date: 2013-03-15 07:17 pm (UTC)Мне кажется, это тупиковое определение. Я не могу сейчас точно этого доказать, но кажется, что количество информации, нужное для полного понимания функционирования "интеллектуальной системы" (назовем это так) как минимум не меньше, чем количество информации которое эта система в себе содержит. Соответственно, никакой вычислитель не сможет содержать в себе полную модель себя _и еще хоть что-то кроме того_.
Хотя нет, даже, кажется, могу доказать: есть в computer science теорема о том, что невозможно создать программу, которая для любой программы сможет предсказать зацикливается ли она на данном наборе данных. То есть, более просто, невозможно создать такую программу, которая для любой программы способна полностью спрогнозировать ее поведение.
То есть любой ИИ будет лишь частично понимать свое функционирование.