О "филосовских" проблемах (to Aleksandr Gree

From: 3DValeri Anisimov ( va@mail.rcom.ru ) Date: 12:43:27 23/01/01

> На эту тему, кажется, известен "тест Дьюринга". По-которому надо
> посадить за ширму ИИ и простого человека. Задавать им вопросы и
> анализировать ответы. Если по ответам не очевидно, где человек, а где ИИ,
> то - это действительно ИИ.
> Однако это мало, что объясняет. Всё равно, что на вопрос ребёнка "как
> двигается паровоз?" ответить, что "паровоз двигается посредством паровой
> тяги". Вся цепочка причинно-следственных зависимостей оказывается
> недоступной пониманию.

А почему вам обязательно надо понять, как там что устроено внутри,
что бы поверить в реальность существования чего-либо? Вряд ли вы,
например, знаете в деталях, как устроены процессор и операционная система
того компьютера, за которым вы работаете. Но это ничуть не мешает вам
поверить в реальность их существования...

> Таким образом, системная граница ИИ, некотором понимании,
> простирается не только в пространстве, как у обыкновенной программы, но и
во
> времени, и имеет сильно вероятностный характер.
> Есть ли тут проблема?

В моем понимании, нет тут никакой проблемы. На сколько я понял,
"филосовских" аргументов у вас два.
1. ИИ не может быть создан, так как комп. программа работает по жестко
детерминированной, заранее известной, заложенной в нее программистом
схеме, а решения ЕИ суть всегда не полностью предсказуемые, вероятностные и
т.д.
2. Программа является статическим объектом, не изменяющим свою структуру
и поведение во времени, а ЕИ суть явление динамическое, все время меняющее
свою структуру, эволюционирующее во времени.

По поводу первого аргумета. Некоторые программы (например, наша программа
распознавания рукописи) активно используют датчик случайных чисел. Таким
образом, подав на вход два раза подряд одно и то же изображение, мы почти
никогда
не получим в точности идентичных ответов. К стати говоря, это ее свойство
приводило в полное замешательство некотрых посетителей выстовок, где мы
экспонировались. Они нас пытались убедить, что это ненормально, что у нас с
программой что-то не так и т.д. и т.п. Пришлось специально для "выставочной"
версии инициализировать датчик случайных чисел все время одной и той
же величиной перед распознаванием очередного документа. К стати говоря,
такая боязнь "непредсказуемости" поведения программы со стороны пользователя
очень любопытна. Но эта тема трубует уже отдельного обсуждения...

По поводу второго аргумента. В настоящее время мы разрабатываем конкретные
алгоритмы
постоянного дообучения программы уже в процессе ее функционирования. То есть
по мере
ее использования конкретным пользователем, она будет эволюционировать во
времени,
постоянно стремясь улучшить уже достигнутый уровень распознавания. А для
программ,
распознающих печатный текст, такие алгоритмы дообучения в той или иной форме
уже
давно реализованы...

Вообще, мне кажется, что многие "филосовские" аргументы происходят примерено
из
такого принципа: если я не могу понять (представить) как это может быть
реализовано,
то это не может быть реализовано в принципе. Но если исходить из такой
логики,
то с "филосовской" точки зрения невозможна, например, и квантовая
механика...


Написать ответ


Конференция "Механизмы сознания"

1