DATE: !301, 19:06:05 28/10/99 USER: Елена Елисеева MAIL: elen_elis@dolphin.kz SUBJ: Вопросы > Константин Лисицын ( lisitcin@kodeks.net ) 27/10/99 пишет: > >Потому, что он будет - живым: он будет, прежде всего, реализовывать жестко "зашитую" >в него программу, обусловленную НБР > Значит, чтобы быть сознательным, надо реализовывать «зашитую» программу. Как по Вашему, каким образом подобная программа «зашилась» в человеке? > >он…будет иметь возможность получения сведений о внешнем мире и способность > >реагировать на них, будет способен накапливать и анализировать информацию, > >формируя, под влиянием НБР, все новые условные рефлексы, вплоть до > >образования наиболее интересного из них - рефлекса "ДУМАТЬ"; > > Понятие «рефлекс» Вы трактуете так же широко, как И.М.Сеченов, считавший, что «все акты сознательной и бессознательной жизни по способу происхождения суть рефлексы»? > > P.S. Прошу прощения за не относящуюся к теме конференции приписку. Г-н Лисицин, у меня не получается отправить Вам ответ. Сервер провайдера возвращает письмо с уверениями, что я делаю какую-то фатальную ошибку! DATE: !302, 21:33:27 28/10/99 USER: Константин Лисицын MAIL: lisitcin@kodeks.net SUBJ: Re.: Вопросы > Здравствуйте, господа! > > Елена Елисеева ( elen_elis@dolphin.kz ) 28/10/99 пишет: > > КЛ >> Потому, что он будет - живым: он будет, > КЛ >> прежде всего, реализовывать жестко "зашитую" > КЛ >> в него программу, обусловленную НБР. > > ЕЕ > Значит, чтобы быть сознательным, > ЕЕ > надо реализовывать "зашитую" программу. > ЕЕ > Как, по Вашему, каким образом > ЕЕ > подобная программа "зашилась" в человеке? > > Подобная программа "зашивается" в человека, в процессе эмбрионального > развития, когда, в свою очередь, реализуется алгоритм, обусловленный > текстом ДНК, который отлаживался в процессе эволюции. > Результатом «прошивки» является жестко зафиксированная (пожизненно) > система однозначных связей рецептор-нейрон и/или нейрон/нейрон, > образующая тот самый, воспетый Владимиром Варгашкиным, фильтр. > > Возможно, я - не вполне точно - элементам поведения, обусловленным НБР, > приписал, в качестве источника, «программу». На самом деле - почти каждый > безусловный рефлекс (БР) - более «похож» на отдельную команду. > «Почти каждый» - потому, что некоторые БР (половой, например), > являют собой комплекс команд, более похожий на «подпрограмму». > > ЕЕ > Понятие "рефлекс" Вы трактуете так же широко, как И.М.Сеченов, > ЕЕ > считавший, что "все акты сознательной и бессознательной жизни > ЕЕ > по способу происхождения суть рефлексы"? > > Да, мне самому было очень приятно, когда, около года назад, > встретил, приведенное здесь Вами, высказывание И.М.Сеченова, > так четко сформулировавшего - еще лет 130 назад - то, > к чему и меня привели собственные размышления. > Однако - сейчас - мне не понятно, почему Вы, Елена, > называете это - «широкой трактовкой»? > На мой взгляд (думаю, что и И.М.Сеченов видел это - так же), > в данном случае, отдельный БР трактуется максимально узко - > как минимальный «кирпичик» поведения, > как элементарная «буква» алфавита, > из которого, впоследствии, «вырастают» все «тексты». > В последней, из приведенных, интерпретации условный рефлекс > будет выглядеть аналогом «слога». И так - далее ... > > Ну, вот: вынужден исполнить очередную «подпрограмму» - > кушать захотелось, однако. ;-) > > До свидания, > Константин Лисицын DATE: !302, 04:24:41 29/10/99 USER: Елена Елисеева MAIL: elen_elis@dolphin.kz SUBJ: Опять вопрос > Здравствуйте, господа, > Константин Лисицын ( lisitcin@kodeks.net ) 28/10/99 пишет: > >Однако - сейчас - мне не понятно, почему Вы, Елена, > >называете это - "широкой трактовкой"? > > Да потому, что это ничего не объясняет. То – рефлекс, и это – рефлекс. И подсознание – рефлекс, и сознание – рефлекс. И у кошки рефлексы, и у человека рефлексы. А мы «зашьем» их в жесткую программу и получится искусственное разумное существо. > > Как Вы собираетесь рефлексы отбирать? А может, (и скорее всего) сами «слоги» и для кошки, и для человека одинаковы? Тогда в чем же разница? Где загадка разумности? DATE: !302, 12:26:50 29/10/99 USER: Тармо Пикаро MAIL: tpikaro@turkuamk.fi SUBJ: Re: И все же... > 27/10/99 Елена Елисеева пишет: > > ЕЕ> 1. Свобода действий доступна лишь живому существу. > Хорошо. Предположим , что мы создадим кибера и поместим его в IRC > (сеть , по которой люди болтают между собой.) - какая степень свободы > будет тогда у кибера ? Практически никакой - это первое ,что приходит > на ум. Однако кибер там долго жить не сможет - он будет чуствовать > себя глухим , слепым и пр - и он может теоретически отыскать людей , > которые дали бы ему доступ к большей свободе действий , чем ему дано > было изначально. Или же он может научиться управлять бот-ами (роботы на > IRC) , затем у него появится доступ к прямому запуску комманд на unixe , > оттуда можно вломаться на свой собственный сервер , перепрограммировать > себя и уже в обновлеммом виде пойти шастать по интернету. > Дальше уже можно обрести зрение , наткнувшись на какую-нибуть стророжевую > камеру подкюченную к компьютеру , слух засчёт микрофонов и пр. > > Короче идея в том , что искуственный интеллект вполне способен 'превзойти самого себя'. > Так что я считаю что свобода его действий больше , чем у нормального > человека, во всяком случае если интеллект будет изначально создан как > компьютерная программа; если же нет - то степень свободы будет > обуславливаться теми органами чуств ,которыми его снабжат. > > ЕЕ> Простите, я остаюсь при своем мнении, что для появления жизни, то есть для появления > ЕЕ> объекта или субъекта, действующего самопроизвольно, надо НЕЧТО, чего мы еще на > ЕЕ> научном уровне даже близко не знаем. > Присоединяюсь к этому мнению. > Есть какие-либо идеи насчёт того , что бы это могло быть ? > > //Tarmo. DATE: !302, 12:36:19 29/10/99 USER: Константин Лисицын MAIL: lisitcin@kodeks.net SUBJ: Re.: Опять вопрос > Здравствуйте, господа! > Елена Елисеева ( elen_elis@dolphin.kz ) 29/10/99 пишет: > > EE> То - рефлекс, и это - рефлекс. > EE> И подсознание - рефлекс, и сознание - рефлекс. > > ? > > EE> И у кошки рефлексы, и у человека рефлексы. > > Да: > > РЕФЛЕКСЫ (от лат. reflexus повернутый назад, отраженный), > реакции организма на раздражения рецепторов. > Возникшее возбуждение передается в центральную нервную систему, > которая отвечает на него также возбуждением; последнее по эфферентным > (двигательным, секреторным и др.) нервам передается к различным органам > мышцам, железам и др.). В 1863 И. М. Сеченов высказал мысль, что > «все акты сознательной и бессознательной жизни по способу происхождения > суть рефлексы». Это положение было развито И. П. Павловым в его учении > о высшей нервной деятельности. > Врожденные рефлексы Павлов назвал безусловными, > а вырабатываемые в течение жизни - условными. > > РЕФЛЕКТОРНАЯ ДУГА (нервная дуга), совокупность нервных образований, > участвующих в рефлексе. Включает рецепторы, центростремительные > афферентные) волокна, нервный центр, центробежные (эфферентные) > волокна, исполнительный орган (мышца, железа и др.). > © «Кирилл и Мефодий», 1998–1999 > > EE> А мы "зашьем" их в жесткую программу и > EE> получится искусственное разумное существо. > > Я уже «оправдывался» 28/10/99 : > КЛ> Возможно, я - не вполне точно - элементам поведения, обусловленным НБР, > КЛ> приписал, в качестве источника, "программу". На самом деле - почти каждый > КЛ> безусловный рефлекс (БР) - более "похож" на отдельную команду. > КЛ> "Почти каждый" - потому, что некоторые БР (половой, например), > КЛ> являют собой комплекс команд, более похожий на "подпрограмму". > > EE> Как Вы собираетесь рефлексы отбирать? > > Да, вопрос формирования НБР - хороший вопрос. > Вот он то и «упирается» в проблему «управляемости» > рукотворного существа, решение которой, к сожалению, > пока разбивается о вопросы, вроде: «Зачем это ему надо?» > > EE> А может, (и скорее всего) сами "слоги" и для кошки, > EE> и для человека - одинаковы? > > Да, можно найти множество - не только «слогов», > но и «слов», и, даже, «фраз», однако, у различных видов, > «алфавиты» имеют и собственные, порой - уникальные, > «буквы». Так, например, пчелиный «алфавит» содержит > «буквы», «ответственные» за поляризацию света. Собачьи > обонятельные «буквы» - притча во языцех. > > EE> Тогда в чем же разница? Где загадка разумности? > > Есть возможность смотреть - на оба эти вопроса - > с такой позиции, что: и разницы - нет, и загадка - не загадка. > > Константин Лисицын DATE: !303, 21:29:12 30/10/99 USER: Тармо Пикаро MAIL: tpikaro@turkuamk.fi SUBJ: Ошибка на самом дне ? > Почти все наши понятия используются как символьные понятия , т.е. к > примеру 'стол' это для нас некий символ , которым мы пользуемся в > повседневной жизни для описаний типа 'я сижу за столом'. Но... мы в > совершенстве начинаем пользоваться этим понятием где-то в детстве - не > сразу же после рождения. > Ок... Отлично. А до того , как мы обучились символьной логике (т.е. > оперированию символами) чем мы спрашивается пользовались ? > После рождения для нас внешний > мир был всего лишь картинкой , различать объекты на этой картинке мы > научились позже. А это говорит о том , что создавая интеллект мы не > должны давать инетллекту готовые символы. Например - если взять ту же > самую бабочку Евгения Корниенко - у неё с самого 'рождения' заложены > такие символы как север , юг , запад , восток (4 направления) , что > должно давать следующий эффект: бабочка хоть и будет адаптироваться > под 2D пространство , но создав ей новое измерение - 3'е (3D) мы получим > то что бабочка не сможет даже 'отыскать его существования' - то есть > бабочка будет не достаточно хорошо адаптироваться под изменения > условий 'игры'. Конечно вы можете поспорить со мной ,что это все можно > допрограммировать , но в том то и идея , что AI должен иметь такой же > уровень адаптирования , как и у человека, а задавая ему наши символы мы > тем самым оганичиваем его логику !!! Откуда мы можем знать , что лет > через 10 мы будем отмерять направления также под 90 градусов ?!? > Итак идея такая - наши понятия / символы - это наши собственные > умозаключения и доверять им нельзя. Кстати... Это занос 'топора' под > 'деревья' физики , химии , математики и прочих наук. :) > > Чему же спрашивается можно вообще доверять ? Динамике нашей среды и > только ей! Нужно начать абсолютно с начала и сделать законы > характерные для динамики , а не для отдельных символов. т.е. например > - ребенок , когда видит свою первую картину изпользует не цвета с неё > для её понимания , а именно изменения этой картины - по ним он > начинает судить , какой предмет можно 'отделить' в свое собственное > понятие. Динамикой в этой системе является 'изменения картины'. DATE: !304, 09:08:18 31/10/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Биологический агент > В fido7.ru.ai Edward Klyshinsky пишет > > > Биологический агент- это агент реализованный в реальном мире с > > использованием органики, при этом его машина логического вывода д.б. > > реализована аппаратно. :о) > > А вообще-то это объект живой природы, который может хоть как-то > > управлять своими действиями. Только если у него мозгов нет, а только > > одни реакции, то это неинтеллектуальный агент. А если есть (если > > он может принимать решения) - то интеллектуальный. > > У меня есть небольшое уточнение к этому определению. У > неинтеллектуального агента "машина выбора поведения", которая может > содержать "машину логического вывода", реализована аппаратно. Жёсткая > программная реализация "правил вывода", как у Deep Blue, - это и есть > аппаратная реализация. Она могла бы быть выполнена на шестерёнках. > > Автоматическое, инстинктивное поведение похоже на точное выполнение > правил и может быть реализовано аппаратно, хотя его иногда можно назвать > интеллектуальным поведением. Например, Deep Blue решает интеллектуальную > задачу. > > Определение: интеллект - это умение решать задачи. > > Уточнение понятия интеллектуального биологического агента состоит в том, > что организмы, имеющие нервную систему, только потенциально умеют решать > задачи. Многие из них сначала должны учиться, а потом уже - решать. Это > происходит в форме решения сначала простых, а потом всё более сложных > задач. > > Потенциальная способность решать задачи - это ещё не интеллект. Это > свойство можно назвать способностью к обучению. Важно, что "аппаратные > реализации" нервной системы и мозга у необученного существа (слепого > щенка) и у эксперта (вожака стаи) в большой степени одинаковы. > > Машина логического вывода интеллектуального биологического агента > содержится в его сознании или в его опыте. Это не аппаратная, а > информационная или "идеальная" реализация. Только жёсткая неосознаваемая > часть логического вывода может быть реализована аппаратно (на > шестерёнках). Но те фрагменты задачи, которые требуют хотя бы малейшего > творчества, не укладываются в жёсткие правила. Для их решения > применяются средства "обобщения опыта" и "догадки", которые легче всего > реализовать средствами сознания, а не в железе. > > Для тех, кто не верит в возможность субъективного сознания (ощущений) у > машины, это обстоятельство можно пояснить так: для того, чтобы робот > решал сложные интеллектуальные задачи проще не программировать все > средства решения задач, а запрограммировать только "способность > обучаться". Остальному робот научится в классе, как и "интеллектуальные > биологические агенты". :) > > Eugeny Kornienko DATE: !304, 20:46:11 31/10/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Убедительное доказательство > 26/09/99 Vladimir Vargashkin спрашивает > > > Отсутствие материальной "подпорки" у идеального объекта - сознания > > Вами постулируется или доказывается. Если последнее, то - как? > > Представьте себе, что в магазине продаётся домашний робот-слуга, в > инструкции к которому сказано, что он обладает сознанием, то есть у него > есть ощущения и эмоции. Как вы сможете это проверить? > > Я говорю не об интеллекте, не о способности к разумному поведению, а > только о сознании, то есть о субъективном ощущении и, в лучшем случае, > об осознавании своих ощущений. Робот вполне может правильно (разумно) > подметать пол и мыть посуду и при этом не испытывать никаких ощущений. > > Проверку наличия сознания неплохо начать с конструктивного определения > сознания. Вот тут и проходит водораздел между теориями материальных и > идеальных процессов. > > Объективное определение сознания невозможно, так как персональные > пространства субъективного опыта не связаны субъективными (идеальными) > каналами связи. Они связаны через материальные каналы, в результате чего > "чужое ощущение не ощутишь." > > Поэтому вместо "объективного" определения, сводимого к непротиворечивым > измерениям, приходится вводить субъективное, логически не строгое > определение, корректность которого невозможно проверить прямыми > физическими измерениями. В лучшем случае возможны косвенные измерения, > подтверждающие весьма правдоподобные (но не имеющие строгого логического > обоснования) связи между идеальными и физическими явлениями. Такие > определения и тесты (правила измерений) для проверки наличия сознания > есть на моём сайте. > > Доказательство наличия сознания, полученное таким образом, является не > логическим, а "убедительным". Это не только "увёртка" от строгого > доказательства, но также и намёк на то, что прежде, чем проводить > предусмотренные тестом испытания, нужно убедить того, кто будет > проверять результаты теста, в том, что определённые результаты теста > свидетельствуют о наличии сознания у проверяемого объекта. > > Как же в этом можно убедить, если заранее известно, что невозможно > логическое доказательство связи между физическими измерениями > (наблюдениями) и наличием ощущений. Для такого доказательства > применяется "убедительное" рассуждение, которое обращено как к разуму, > так и к чувствам. > > Подобные "доказательства" тысячи лет использует церковь. Не нужно > больших усилий, чтобы "убедить" недостаточно образованного человека. > Известно, что многие испытуемые принимали диалог с "Элизой" за диалог с > разумным компьютером. Многие готовы поверить, что Deep Blue "имел цель" > обыграть Каспарова. Один из участников comp.ai.philosophy совершенно > серьёзно делал вывод, что скорпиону больно на основании того, что > скорпион "пытался сам себя ужалить", когда его заливали воском, . > > В нашем случае доказательство должно быть убедительным для образованного > и скептически настроенного эксперта. Построить такое доказательство не > просто. И даже если это получится, оно остаётся логически не строгим. > > Многие вещи, в которых мы не сомневаемся, не могут быть строго доказаны. > Например, вы уверены, что Солнце взойдёт завтра также, как это > происходит миллионы лет. В качестве доказательства вы могли бы привести > научные сведения об устройстве солнечной системы и о > законах механики. Но, > > 1) Люди были не менее, чем вы уверены в этом факте задолго до появления > понятия "солнечная система". > > 2) Законы механики - это индуктивное обобщение некоторых наблюдений. > > Формулировки "законов природы" - это не строго логические выводы из > наблюдений. Это аксиоматические утверждения о наиболее общих > закономерностях природы и логические выводы из этих утверждений. Если бы > Солнце завтра не взошло, то этот неожиданный факт был бы сильнее, чем > наши теории. Он заставил бы нас искать новое объяснение. > > Вернёмся к роботу-слуге. У меня была заметка в relcom.sci.philosophy, > которая иллюстрирует, что только живое общение с этим роботом может > убедить вас в том, что перед вами: > > "Чувствующий субъект" или "бездушная машина"? > > И вот, под впечатлением этой сложной проблемы, вы покупаете себе > "робота-слугу" не столько для того, чтобы он помог вам по хозяйству, а > для того, чтобы выяснить действительно ли он обладает сознанием. > > По мере запуска различных узлов и установки нужных программ, робот > оживает. Поначалу он выглядит как довольно неуклюжая машина, но > постепенно показывает некоторые способности в уборке дома. Он знакомится > с вами и с вашей семьёй. Начинает участвовать в вашей обычной жизни. > Иногда смотрит вместе с вами новости по телевизору. > > Наконец ваше знакомство становится достаточно неформальным, и вы задаёте > ему прямой вопрос о его сознании. Он утверждает, что он видит как вы, > чувствует боль, имеет желания, любит природу. Оказалось, что его > интересует не только уборка дома, и с ним можно поговорить. Вы решаете > больше общаться с этим роботом, чтобы выяснить, действительно наука > создала чувствующее искусственное существо, или это просто искусно > сделанный механизм. > > Вы не знаете, как на самом деле устроен этот робот. Он тоже этим > интересуется. Но вам не удаётся заглянуть внутрь, так как ваш друг > робот говорит, что ему больно. > > Вскоре вы становитесь искренними друзьями. Обсуждаете философские > проблемы и политические новости, ходите на рыбалку и играете в шахматы > с переменным успехом. > > Наступил момент, когда вы понимаете, что ваш друг не имитирует разум. > Можно симулировать глупость, но не живой ум. > > Вы понимаете, что вы интеллектуально равны, что не родился ещё такой > программист, который мог > предусмотреть все предстоящие ситуации в жизни этого робота. В новой и > трудной обстановки робот иногда находит неожиданно удачные новые > решения. Вы уже хорошо понимаете его, видите, что ему приятно, чего он > избегает. У него есть свои желания, потребности и интересы. Теперь вы > убеждены, что бездушная машина была бы неспособна на такую дружескую > привязанность. > > После десяти лет этой необычной дружбы вы случайно находите на спине > вашего друга маленькую этикетку "Windows compatible". И вы > понимаете, что надо разведать истину где-то в империи Microsoft. > > После некоторых усилий вы находите лабораторию искусственного > интеллекта. Там вам объясняют, что компьютер не может обладать чувствами > и сознанием, проблема сознания ещё не решена, и они все десять лет > управляли вашим другом-роботом по радио. > > Что делать? Оказывается вы тратили свои искренние чувства на "дружбу" с > "механизмом"? Вы отказываетесь поверить, что это кусок железа, а не > разумное существо! > > Вы рассказываете всю правду вашему другу роботу. Он тоже считает, что > его обманули, раз его волей управляли какие-то неизвестные люди. В > отчаянии он желает покончить с собой и разрезает себе живот. Вы видите > колёсики, трубки, проводки, микросхемы. О чём это говорит? > > А может, микрософтовские программисты над вами посмеялись? > И ваш друг на самом деле думал, чувствовал и любил вас > без всякого постороннего управления. > > Eugeny Kornienko > > p.s. О "материальной подпорке". Обратите внимание, что если бы робот, в > сознание которого вы поверили, был сделан с такой подпоркой или без неё, > то это никак не повлияло бы на ВАШЕ мнение о его сознании. Сущность > субъекта субъективна. DATE: !305, 03:04:33 01/11/99 USER: Елена Елисеева MAIL: elen_elis@dolphin.kz SUBJ: Re. Ошибка на самом дне > Тармо Пикаро ( tpikaro@turkuamk.fi 30/10/99 пишет: > >Чему же спрашивается можно вообще доверять ? Динамике нашей среды и > >только ей! Нужно начать абсолютно с начала и сделать законы > >характерные для динамики , а не для отдельных символов. т.е. например > >- ребенок , когда видит свою первую картину использует не цвета с неё > >для её понимания , а именно изменения этой картины - по ним он > >начинает судить , какой предмет можно 'отделить' в свое собственное > >понятие. Динамикой в этой системе является 'изменения картины'. > Но, Тармо, Вы же сами говорите, что эволюция начинала с такого восприятия. Земноводные и сейчас, по-видимому, воспринимают мир именно так. Во всяком случае, к ним можно подкрасться, если двигаться очень медленно. Для них значимо, как Вы пишете, изменение динамики среды. > Но такое восприятие не достаточно для эффективного выполнения четырех функций, о которых мы говорили в предыдущих сообщениях. Природе понадобилось тренироваться на животном мире в усилении функций восприятия запахов, температуры, колебаний, вкуса, пока она не остановилась на том, что человек воспринимает львиную долю информации через зрение. При этом зрение должно фиксировать мир, расчлененный на объекты. Вы хотите заставить искусственный интеллект пройти снова этот путь? Но зачем? DATE: !305, 03:26:04 01/11/99 USER: Елена Елисеева MAIL: elen_elis@dolphin.kz SUBJ: Загадка искусства > Тармо Пикаро ( tpikaro@turkuamk.fi ) 29/10/99 > > ЕЕ>> Простите, я остаюсь при своем мнении, что для появления жизни, > EE>>то есть для появления объекта или субъекта, действующего > EE>>самопроизвольно, надо НЕЧТО, чего мы еще на научном уровне даже > EE>>близко не знаем. > > ТП>Присоединяюсь к этому мнению. > ТП>Есть какие-либо идеи насчёт того , что бы это могло быть ? > > На мой взгляд, это Нечто связано с искусством. Искусство появилось почти сразу же, как только исторически мы можем говорить о homo sapiens. Причем сразу же в полную силу. За тысячелетия неизмеримо развился интеллект человека, его способность к логическому мышлению, но пещерная роспись также прекрасна, как и картины современных художников. (Некоторые считают, что даже прекраснее). DATE: !305, 18:13:50 01/11/99 USER: В.Б.Губин MAIL: VBGubin@adm.pfu.edu.ru SUBJ: Re: Ошибка на самом дне ? > Тармо Пикаро написал 21:29:12 30/10/99 > > TP> А до того , как мы обучились символьной логике (т.е. > TP> оперированию символами) чем мы спрашивается пользовались ? > TP> создавая интеллект мы не должны давать > TP> инетллекту готовые символы. > > Я думаю, ребенок обучается, пользуясь случайными пробами и связывая результаты проб с условиями их получения - то есть с объектами, которые он выделяет в видимой им картинке, и своими действиями. Я думаю, что вначале получается нечто подобное перцептрону, сущность которого - нахождение особенностей в предъявляемом материале, причем кодировка наблюдаемого - на своем языке, то есть отображение незеркальное, но зависящее от наблюдаемого, то есть содержащее и объективное (совершенно как в диамате, сторонником которого я являюсь). Затем накопленный опыт используется для ориентировки в новых "картинках" и в принципе с новыми коррекциями оценок особенностей. > > TP> Итак идея такая - наши понятия / символы - > TP> это наши собственные умозаключения и доверять > TP> им нельзя. > > Это неверно. Полностью, конечно, нельзя. Но доля истины в них есть. > > TP> Кстати... Это занос 'топора' под 'деревья' TP> физики , химии , математики и прочих наук. :) > > Полное недоверие - конечно занос топора, но полностью отказывать в доверии нет оснований. Как говорится, доверяй, но проверяй. Как физик, скажу, что постоянные сомнения в правильности и возврат к началу - непременная обязанность работающего физика. > > TP> Чему же спрашивается можно вообще доверять ? TP> Динамике нашей среды и только ей! Нужно > TP> начать абсолютно с начала и сделать законы > TP> характерные для динамики , а не для отдельных > TP> символов. т.е. например - ребенок , когда > TP> видит свою первую картину изпользует не цвета > TP> с неё для её понимания , а именно изменения > TP> этой картины - по ним он начинает судить , > TP> какой предмет можно 'отделить' в свое > TP> cобственное понятие. Динамикой в этой системе > TP> является 'изменения картины'. > > Не думаю, что это в большой степени верно. Он сам оглядывает картину. В действительности глаза даже колеблются при разглядывании, не помню, как это называется. Во всяком случае, при моем рассмотрении выработки ощущения ("Физические модели и реальность" http://www.pfu.edu.ru/~vgubin )субъект строит границы и там (и это обычное дело), где их нет. > > Всего хорошего > В.Б. Губин DATE: !305, 19:12:26 01/11/99 USER: В.Б.Губин MAIL: VBGubin@adm.pfu.edu.ru SUBJ: Re: Убедительное доказательство > Eugeny Kornienko написал 20:46:11 31/10/99 > > EK> p.s. О "материальной подпорке". Обратите внимание, > EK> что если бы робот, в сознание которого вы поверили, > EK> был сделан с такой подпоркой или без неё, > то это > EK> никак не повлияло бы на ВАШЕ мнение о его сознании. > > Как говорится, если бы, да кабы. > > EK> Сущность субъекта субъективна. > > Это да, но мы никогда не видели субъективности без материальных подпорок. И пока это решает дело. > > Всего хорошего. В.Б.Губин. DATE: !306, 00:23:37 02/11/99 USER: Тармо Пикаро MAIL: tpikaro@turkuamk.fi SUBJ: Re: Ошибка на самом дне ? > 01/11/99 В.Б.Губин пишет: > TP> А до того , как мы обучились символьной логике (т.е. > TP> оперированию символами) чем мы спрашивается пользовались ? > TP> создавая интеллект мы не должны давать > TP> инетллекту готовые символы. > > ВГ> Я думаю, ребенок обучается, пользуясь случайными пробами и связывая результаты проб > ВГ> с условиями их получения - то есть с объектами, которые он выделяет в видимой им > ВГ> картинке, и своими действиями. Я думаю, что вначале получается нечто подобное > ВГ> перцептрону, сущность которого - нахождение особенностей в предъявляемом материале, > ВГ> причем кодировка наблюдаемого - на своем языке, то есть отображение незеркальное, но > ВГ> зависящее от наблюдаемого, то есть содержащее и объективное (совершенно как в > ВГ> диамате, сторонником которого я являюсь). Затем накопленный опыт используется для > ВГ> ориентировки в новых "картинках" и в принципе с новыми коррекциями оценок > ВГ> особенностей. > > В том то и дело , что если описывать всё объектами , то получится > не достаточно точная и хорошо неадаптирующаяся модель. Разве не эта проблема > касается сейчас почти всех извествых мне программ , обладающих > основными элементами адаптирования. К примеру сюдa запросто подойдет > одна старая игрушка GirlFriend Terri , а также полагаю из той же серии > - Диалa (судя по комментариям о ней). То же самое утверждается в > одном из PS-документов , который я нашёл на www.sourcebank.com. > (однако я ещё не совсем вник - там говорится в общем или только по > поводу конкретной проблемы.) > > TP> Итак идея такая - наши понятия / символы - > TP> это наши собственные умозаключения и доверять > TP> им нельзя. > ВГ> Это неверно. Полностью, конечно, нельзя. Но доля истины в них есть. > > Я немного не так выразился. Да - им приходится доверять , так как > лучшего выхода пока нету. Вопрос - какое бы понятие или > символ вы бы назвали истинным для искуственного интеллекта ? > Использование каждого нового символа в логике новорожденного > интеллекта ограничивает мышление данного интеллекта. Например - дав > бабочке (да не рассердится на меня Евгений Корниенко ;-) ) 4 > направления мы тем самым не даем ей другого выбора. А если бы ей > захотелось отмерять своей координатной системой счисления ? > Под 120 градусов координаты ? Вообще-то в данном случае это не > страшно, что она не может отмерять их так , но в других случаях это > может играть очень существенную роль. > > TP> Кстати... Это занос 'топора' под 'деревья' TP> физики , химии , математики и прочих наук. :) > ВГ> Полное недоверие - конечно занос топора, но полностью отказывать в доверии нет > ВГ> оснований. Как говорится, доверяй, но проверяй. Как физик, скажу, что постоянные > ВГ> сомнения в правильности и возврат к началу - непременная обязанность работающего > ВГ> физика. > > Логика мышления физика: > - солнце встает каждый день на востоке и заходит на западе - как > сказал Ньютон. (ну к примеру ;) ) Затем в один прекрасный день солнце > внезапно не встает. Физик чешет голову и идет искать ошибки в законах > Ньютона. :) Что же касается интеллекта - то для него нету такого > понятия как 'неудача' , он не начинает перестраивать все законы с > самого начала , в отличие от физика. Да я согласен , что мы можем > использовать физику , математику и пр. науки , как полезные вещи , но > для новорожденного интеллекта это будет служить помехой , ограничивать > мышление , давать неточные результаты. > > 01/11/99 Елена Елисеева пишет: > ЕЕ> На мой взгляд, это Нечто связано с искусством. Искусство появилось почти сразу же, > ЕЕ> как только исторически мы можем говорить о homo sapiens. Причем сразу же в полную > ЕЕ> силу. За тысячелетия неизмеримо развился интеллект человека, его способность к > ЕЕ> логическому мышлению, но пещерная роспись также прекрасна, как и картины современных > ЕЕ> художников. (Некоторые считают, что даже прекраснее). > Продолжаю вашу идею... > Может это искусство видеть общую картину , а не сосредотачиваться на > отдельных деталях ? Скажем если математик видит куб на столе, > то он пытается описать формулами его и получается картина с кубом > просчитанным до малейшей капли; если же художник смотрит на куб - то > он не видит куб , как таковой - он видит ещё и стол и полотно , на котором > этот куб лежит. И если позже сравнить две картины , то в общем > смысл передается лучше на картине художника , хотя куб смотрится лучше > у математика. Как всегда несколько образно... :-) > > Ещё несколько идей насчет динамики... > Представим себе ребёнка , который якобы смотрит на картину. На картине > движется шар. За одну долю секунды ребёнок замечает движение > предмета на картине. Причём для него возникает на картине 2 части - > которая изменилась и которая не изменилась. Той которая не изменилась > ребенок остается доволен. Другую же он пытается подогнать тоже под > неизменяющуюся систему , подобрав к ней нужные законы. Причём > замедьте - происходит разбиение на 2 ветви , первая сразу же кончается > , вторая - будет продолжать существование и разбиваться дальше на > ветки. > > // Тармо DATE: !307, 23:13:08 02/11/99 USER: В.Б.Губин MAIL: VBGubin@adm.pfu.edu.ru SUBJ: Re: Ошибка на самом дне ? > Тармо Пикаро 00:23:37 02/11/99 пишет: > > TP> В том то и дело , что если описывать всё объектами , то получится > TP> не достаточно точная и хорошо неадаптирующаяся модель. > > Я не понял смысла Ваших слов. Кстати, я не кибернетик, не управленец, не распознаватель образов и не тому подобное и тем более не более сложное и поэтому не следует меня принимать слишком всерьез. Но все же, по-моему, перцептрон не вырабатывает объектных образов, а что неточно отражает - то это хорошо, потому что нельзя точно отразить в одной сфере то, что существует в другой сфере. И обучаться будет на новых данных, если устроить ему обратную связь. Главное - это научиться устанавливать границы в отражении любого материала, чтобы ориентироваться в ситуациях. А в каких терминах он это сделает, где будет локализовываться картина и вывод - это не наше дело. Мы этого не увидим, как и не видим точной локализации мысли у нас в мозгу. > ================ > > TP> а также полагаю из той же серии - Диалa (судя по комментариям о ней). > > Что-то я заскучал с ней сразу же и вырубил. Может, я неправ. Конечно, сразу железка не научится. Но я посмотрел файлы с заготовками - джентльменский набор того, что я не люблю, ну и отстал. > ====================== > > TP> Итак идея такая - наши понятия / символы - > TP> это наши собственные умозаключения и доверять > TP> им нельзя. > > ВГ>Это неверно. Полностью, конечно, нельзя. Но доля истины в них есть. > > TP> Я немного не так выразился. Да - им приходится доверять , > TP> так как лучшего выхода пока нету. Вопрос - какое бы > TP> понятие или символ вы бы назвали истинным для искуственного интеллекта ? > > Если я врубаюсь, то или никакое, или состояние принятия "решения" на выбор данного действия. Но не понятие или символ, потому что до понятий или символов в проблеме искусственного интеллекта еще очень далеко. Кажется, это будет не раньше, чем у него появится рефлексия или, там, язык, то есть левополушарное мышление, а я думаю, что надо начинать с правополушарного. Кажется, нейронная сеть перцептрона - это нечто правополушарное. > > TP> Использование каждого нового символа в логике новорожденного > TP> интеллекта ограничивает мышление данного интеллекта. > > Так надо устроить узнавание нового как внешнего, так и внутреннего опыта и на этой основе новое обучение со сменой понимания символов и их места в ориентировке. Все как у людей... Повторяю, что линейную логическую обучалку я не рассматриваю как достойный предмет нашего разговора. Я сам все время подразумеваю распознаватель типа перцептрона. Думаю, что без него - никуда. > > TP> Логика мышления физика: - солнце встает каждый день > TP> на востоке и заходит на западе - как сказал Ньютон. > TP> (ну к примеру ;) ) Затем в один прекрасный день солнце > TP> внезапно не встает. Физик чешет голову и идет искать > TP> ошибки в законах Ньютона. :) Что же касается интеллекта - > TP>то для него нету такого понятия как 'неудача' > TP> он не начинает перестраивать все законы с > самого начала, > TP> в отличие от физика. > > Вернее всего, я слабо или вообще неверно представляю себе, что Вы понимаете под искусственным интеллектом. Почему бы ему не все время учиться, перестраивая свои правила ориентировки? Если Вы говорите о "зашитых" правилах, то другое дело. Все же я думаю, что обучение должно происходить методом проб и ошибок с коррекцией исходных принципов. Как в нормальной теории познания - существенное естественнонаучное открытие корректирует философию. Не понимаю, почему так нельзя сделать у искусственного интеллекта. (При этом я не хочу сказать, что он достигнет тогда настоящих чувств.) DATE: !309, 16:14:43 05/11/99 USER: Тармо Пикаро MAIL: tpikaro@turkuamk.fi SUBJ: Re: Ошибка на самом дне ? > Мне показалось или на моем последнем сообщении конференция затихла ? > P.S. Если наткнетесь на возможные буги - сообщайте мне немедленно - тут > переодически на майл приходит реклама , на которую я сразу же ставлю > бан - так что вполне возможно я могу перехимичить с установками в > какой-то момент. > > 02/11/99 В.Б.Губин пишет: > > Amb> Тармо Пикаро 00:23:37 02/11/99 пишет: > > TP>> В том то и дело , что если описывать всё объектами , то получится > TP>> не достаточно точная и хорошо неадаптирующаяся модель. > > Amb> Я не понял смысла Ваших слов. Кстати, я не кибернетик, не управленец, > Amb> не распознаватель образов и не тому подобное и тем более не более сложное > Amb> и поэтому не следует меня принимать слишком всерьез. > :) Я полагаю , что вряд ли стоит что-то воспринимать всерьёз - во-первых > стоящего подхода к ИИ до сих пор нету , во-вторых по-моему следует > использовать правило "Trust no one" - не доверяй никому (это из > X-Files) ко всем существующим по сей день теориям. > > хорошо неадаптирующаяся модель - это значит следующее: > задав ИИ новое понятие вы тем самым уменьшаете его взгляд на мир. Ну > скажем есть такие люди , которые для меня кажутся имеют неширокий > взгляд на мир - типа всё , что их интересует это деньги , деньги и > деньги , в то же время наверняка есть люди которые считают мой взгляд > на мир довольно узким. Так что задавая наши понятия ИИ мы съужаем > взгляд ИИ на мир в каком-то направлении , не давая ему самому > развиваться. Максимум чего программист может достигнуть делая > программу таким образом - точное подобие себя. > Надеюсь лучше объяснил - никогда не отличался красноречием. :) > > Вопрос на засыпку: что такое перцептрон ? > > Amb> Что-то я заскучал с ней сразу же и вырубил. Может, я неправ. > Amb> Конечно, сразу железка не научится. Но я посмотрел файлы с заготовками - > Amb> джентльменский набор того, что я не люблю, ну и отстал. > Согласен с вами. > > TP>> Вопрос - какое бы > TP>> понятие или символ вы бы назвали истинным для искуственного интеллекта ? > > Amb> Если я врубаюсь, то или никакое, или состояние принятия "решения" на выбор > Amb> данного действия. Но не понятие или символ, потому что до понятий или символов > Amb> в проблеме искусственного интеллекта еще очень далеко. > Хммм - если это не относиться к символам , то ничего дельного пока сказать не > решаюсь. > > TP>> Использование каждого нового символа в логике новорожденного > TP>> интеллекта ограничивает мышление данного интеллекта. > > Amb> Так надо устроить узнавание нового как внешнего, так и внутреннего опыта > Amb> и на этой основе новое обучение со сменой понимания символов и их места в > Amb> ориентировке. > Здесь вы различаете внешний и внутренний опыт - по моему это только > концепции присущие некоторым , но не всем людям. Так что это тоже > подгон ИИ под наши понятия / символы. Модель ИИ должна быть по-моему > одной 'машиной'. (Ассоциация: из фильма терминатор 2 - новая модель > робота не состоит из частей , а переливается как заблагорассудится ей , > нечто подобное надо сделать и нам) > > TP>> Логика мышления физика: - солнце встает каждый день > TP>> на востоке и заходит на западе - как сказал Ньютон. > TP>> (ну к примеру ;) ) Затем в один прекрасный день солнце > TP>> внезапно не встает. Физик чешет голову и идет искать > TP>> ошибки в законах Ньютона. :) Что же касается интеллекта - > TP>>то для него нету такого понятия как 'неудача' > TP>> он не начинает перестраивать все законы с > Amb> самого начала, > TP>> в отличие от физика. > > Amb> Вернее всего, я слабо или вообще неверно представляю себе, что Вы понимаете > Amb> под искусственным интеллектом. > Именно по этому я и предложил создать новый язык для разработки > интеллекта - мы можем говорить об одних и тех же вещах , доказывая > абсолютно одинаковые вещи , абсолютно не понимая друг друга. Всё это > происходит благодаря нашим туманным определением слов и полным > отсутствием какой-либо системы - в словаре около 50 тысяч слов , из > которых мы хорошо если знаем половину да и то никакой гарантии , что > знаем настолько хорошо как надо бы. > > Amb> Почему бы ему не все время учиться, перестраивая > Amb> свои правила ориентировки? > Я предполагаю , что если сделать такую модель - то она будет > использовать какие-то факты/принципы , которые имеют сильно символьный > характер - то есть их можно выделить , как отдельные предметы. В > природе же ничего нельзя назвать предметом , так как этот вот самый > предмет очень даже сильно изменяется - например стол не просто стоит в > комнате , а его молекулы находятся в постоянном движении , в > результате чего даже столу присуще старение материала. То есть > фактически мы не имеем права выделять стол , как предмет. Вся природа > - это движение , статике тут нету места. Если бы мы рассматривали > зайца как предмет , мы бы через несколько минут обнаружили , что этот > 'предмет' убежал :) конечно , мы можем описать траекторию движения > зайца , но - во-первых это придумали мы , природу эти результаты мало > заинтересуют , во-вторых это неточно - заяц может в любой момент > времени свернуть с дороги , что бы скушать интересный ему кустик , в- > третьих найдя формулу для траектории зайца мы даем её только одному > зайцу , а не универсально всем. > Конечно я могу быть не прав - просто это самая свежая моя идея. :) > Не стоит останавливаться на этих идеях если я непонятно выразился. > > // Тармо Пикаро DATE: !310, 11:54:50 06/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Ассоциативный мотор > Я нашёл старую заметку, которая поясняет несводимость "алгоритма" и > "творчества". В общем, это верно. Значит, я неудачно использую на своём > сайте слова "алгоритм сознания". Лучше сказать, что я создаю > ассоциативный алгоритм, обеспечивающий (поддерживающий, усиливающий) > сознание существа, в которое встроен этот алгоритм. При этом "алгоритм > работы сознания", правила размышлений и логических выводов не входят в > компетенцию моего "механического" алгоритма. > > Принципиальное различие между ассоциативным алгоритмом (ассоциативным > мотором) и сознательным существом в том, что алгоритм лишь > перерабатывает потоки кодов, а существо перерабатывает потоки "реальных > воздействий" и имеет органы, специально приспособленные для > взаимодействия с реальным миром. Сознание - это не субъективные коды, а > объективное явление природы. > > Кстати, Трамо, если рука младенца приспособлена к хватанию (до 7 дней > это очень сильный безусловный рефлекс), то это не значит, что природа > дала младенцу "понятие" хватания. Понятие - это понятая взаимосвязь > между явлениями. Взрослый человек понимает, что такое "хватание" и может > сформулировать это в словах. Кошка понимает, что такое "схватить мышку". > Это значит, что в её опыте (памяти) есть множество образов, > ассоциативно связанных с охотой на мышей и конкретно с "хватанием > мышки". > > Моя бабочка сначала не имеет понятий "верх, низ, лево, право". Эти > понятия (абсолютно не такие, как у нас :) возникают у неё (в её > сознании) по мере накопления успешного опыта. Но её мозг (ассоциативный > мотор) как не имел таких понятий, так и не имеет. Он всё время > перерабатывает числа. Хотя я не уверен, что мозг не имеет своего > сознания. Это трудно понимаемый вопрос, потому что мы живём в физическом > мире, а мозг - в информационном. > > Если вдруг появится третье измерение, и органы бабочки не смогут с ним > взаимодействовать, то она об этом ничего не узнает. А если она сможет > обнаружить наличие третьего измерения по каким-то косвенным признакам, > по свойствам третьих объектов, то она сможет более подробно изучить это > явление. > > Для того, чтобы возникли понятия о таких явлениях, которые > непосредственно не воспринимаются нашими органами, нужны специальные > исследования и поиск промежуточных "агентов", преобразующих > невоспринимаемые явления в воспринимаемые. Например, мы наблюдаем > траектории электронов по их трекам в камере Вильсона. Эти треки - > капельки воды, которые уже можно сфотографировать и наблюдать. А сам > электрон пока никто не видел. :) > > Eugeny Kornienko > > === > > Re: Алгоритмы и Творчество > > Q: Возможен ли алгоритм творчества? > > A: Алгоритм - механическая процедура, которая управляет символами, > используя ряд правил/кодов, которым нужно следовать, чтобы получить > результат. Например, для изготовления кресла выполните следующие > инструкции "... возьмите основу, присоедините к ней четыре ноги > используя шурупы ..." Алгоритм должен быть механическим, чтобы вам не > нужно было думать о его смысле. Таким образом, никакой гомункул > (думатель) не нужен. > > Творческий потенциал, с другой стороны, требует гомункула. Когда мы > изобретаем, мы много думаем, а это требует понимания. Например, > изобретатель компьютера понял, что имелась потребность в машине, > сохраняющей информацию, и приступил к её созданию. Он должен был понять, > во-первых, что имелась потребность в компьютере, затем нужно было > спроектировать компьютер, используя творчество. Как можно > запрограммировать что-то при помощи "ряда правил", делающих это что-то > творческим? Спроектировать что-то оригинальное, основанное на > неизвестных знаниях об этом объекте. Это неалгоритмизуемая задача! > > Поэтому, я полагаю, что не может быть алгоритма (нечто не содержащее > гомункула) для создания творческого потенциала (нечто, требующее > гомункула). > > Ian Belcher (icb195@soton.ac.uk) > Вторник, 28 мая 1996 13:57:09 + 0100 > > === > > В этой заметке Ian Belcher упоминает гомункула (homunculus), который > вместе с торсионным полем и фомацией пробуждают фантазию, но уводит > народ от изучения наблюдаемых проявлений сознания. :) > > Вот хорошая фраза об ограниченности нашей фантазии: > > "Правда часто удивительнее вымысла, > потому что вымыслу приходится быть правдоподобным." > > Марка Твен DATE: !310, 21:17:40 06/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Биологический агент > Привет всем! Я знаю, что некоторые подписчики "AI message board" не > видят конференцию fido7.ru.ai. Поэтому я дублирую некоторые свои заметки > здесь. Если я не прав, пишите: korn@glasnet.ru > > === > > Биологический агент > > 04.11.99 в конференции fido7.ru.ai Edward Klyshinsky пишет > > > Машина логического вывода по определению должна работать на правилах. > > Да. Но эти правила не обязательно должны храниться в аппаратной форме и > в жёстком формате. Часто мы не просто применяем "правила действий", а > сначала выводим их вновь, так как невозможно всё точно помнить, а потом > уже применяем. Способность "восстанавливать" или просто вспоминать > правила основана на ассоциативном механизме работы сознания, который сам > по себе не использует правил. Он устроен так, что "легче вспоминается > то, что чаще повторяется". Это похоже на работу динамической оперативной > памяти в компьютере на физическом уровне - для того, чтобы данные не > исчезли, требуется регулярная "регенерация". > > Зная некоторые правила вывода, мы можем вывести нужные в данный момент > правила и теоремы. Какие "правила вывода правил" мы знаем? Те, которые > приходится часто применять. Есть некоторое количество правил, которые мы > вспоминаем без труда, но опять же, благодаря работе ассоциативной > памяти, а не путём выбора из "базы знаний". > > > можно создать аппаратную машину логического вывода, которая будет > > из собственной аппаратно реализованной памяти извлекать правила, > > хранящиеся в фиксированном формате и, в зависимости от того, что это > > за правило, производить некоторые действия. При этом содержимое > > этой памяти (аппаратно реализованной БЗ) имеет возможность изменяться. > > Да, можно, этим все и занимаются. > > > В общем аппаратная реализация - это не всегда автомат. > > Мы ведь тоже реализованы "аппаратно". > > Наше тело, мозг и "ассоциативный мотор" реализованы аппаратно. Но всё, > что относится к логике и правилам, реализовано на идеальном уровне. Это > наши знания накопленные в опыте взаимодействия с реальным миром. > Биохимические процессы в мозгу совсем не похожи на выполнение "правил". > Мозг не взаимодействует с миром и не оперирует с "объектами", которые > мы выделяем в этом мире. > > >> Определение: интеллект - это умение решать задачи. > > > Спорить не буду. > > Я тоже. Просто я пояснил, в каком смысле использую слово "интеллект". В > этом смысле автоматическое решение задач тоже является интеллектуальной > работой. Но такая интеллектуальная работа может быть неосознаваемой. > Например, мы иногда пишем автоматически. Мы думаем о содержании письма, > а не о том, как это вывести на бумаге. Но письмо явно относится к > интеллектуальным культурным достижениям. > > Я применяю слово "сознание", чтобы отделить осознаваемую часть > интеллектуальной работы от автоматической. Хотя существует механизм > перевода хорошо натренированных действий из осознаваемых в > подсознательные, автоматические. Эти действия называются условными > рефлексами. Они не всегда могут быть связаны с какими-то измеримыми > "аппаратными" изменениями в нервной системе. Дело не в точности > измерений, а в том, что некоторые условные (и безусловные рефлексы) > могут оставаться или стать зависимыми от "свободы воли", то есть, > возможно идеальное влияние, превышающее аппаратное. > > >> Потенциальная способность решать задачи - это ещё не интеллект. > > > Это машина логического вывода с незаполненной БЗ - экспертная > > оболочка. > > Возможен такой вариант. Но живой мозг не является незаполненной "базой > знаний". Субъективный опыт всегда полон и не имеет изъянов. Например, мы > не чувствуем себя ущербными от того, что не способны воспринимать > большую часть спектра электромагнитных колебаний. "Голова китайца - это > чистый лист бумаги" только в том смысле, что китайца можно кое-чему > научить, а не потому, что у него в мозгу физически или информационно > есть "свободное место" для знаний. Просто в процессе обучения его знания > (опыт) организуются в более информационно ёмкую идеальную структуру. > > >> Это свойство можно назвать способностью к обучению. > > > Hе факт. Может я умею проводить логический вывод, но не могу > > обучаться. > > Такое возможно, если логический вывод выполняется по жёстким правилам > вывода. А если правил вывода нет, то достаточно иметь способность к > ассоциативному научению, то есть к запоминанию часто повторяющихся > фрагментов персонального опыта. > > > у нас расхождения в терминологии. > > Мне ваша "терминология" знакома и понятна. А в моих словах наиболее > непонятное - это, наверно, применение слова "сознание", которое до > недавних времён не считалось научным термином в кибернетике. Но сейчас > уже считается. Пора привыкать :) > > E.Kornienko DATE: !313, 17:23:10 09/11/99 USER: Константин Лисицын MAIL: lisitcin@kodeks.net SUBJ: Хочется пояснений > Здравствуйте, господа! > > Е. Корниенко (korn@glasnet.ru) 6 ноября 1999 г. в fido7.ru.ai пишет: > > ЕК> В этой заметке Ian Belcher упоминает гомункула (homunculus), > ЕК> который вместе с торсионным полем и фомацией пробуждают > ЕК> фантазию, но уводит народ от изучения > ЕК> наблюдаемых проявлений сознания. :) > > Уважаемый Евгений! Хочется пояснений. > Во-первых - знакомы ли читатели fido7.ru.ai с определением фомации? > Во-вторых - каким это образом она уводит народ от изучения > наблюдаемых проявлений сознания? (В нашей конференции Вы ни слова > не сказали о ней) > > Напомню: > Фомация - материальный свидетель любого материального движения > (с) К.Лисицын > > С уважением, > Константин DATE: !314, 14:31:11 10/11/99 USER: Константин Лисицын MAIL: lisitcin@kodeks.net SUBJ: Re.: Хочется пояснений > Здравствуйте, уважаемый Евгений! > > По принципиальным соображениям продолжаю > обращаться к Вам через конференцию, поскольку > не удовлетворен вашей отпиской в личном письме. > Прошу дать ответ - в рамках конференции - > и - по существу заданных вопросов. > Напоминаю: > > КЛ> Фомация - материальный свидетель любого материального > КЛ> движения. (с) К.Лисицын > > КЛ> Уважаемый Евгений! Хочется пояснений. > КЛ> Во-первых - знакомы ли читатели fido7.ru.ai с определением фомации? > КЛ> Во-вторых - каким это образом она уводит народ от изучения > КЛ> наблюдаемых проявлений сознания? > КЛ> (В нашей конференции Вы ни слова не сказали о ней) > > Ни одного ответа не прозвучало. > > Вы, в своем письме ко мне, пишете: > > ЕК> Меня около месяца не было, и Тармо пропустил тему о фомации, > ЕК> приняв это слово за относящийся к сознанию, но незнакомый ему термин. > ЕК> Эта тема не имеет содержания. Масло масляное и вода водянистая. > > То, что лично Вы не поняли смысла и значения категории "фомация" - ясно. > То, что дальнейшее ее применение в рамках конференции будет пресекаться - > тоже ясно. Знакомый почерк. (Существует единственное правильное мнение, > и оно - мое) Тогда вопрос: зачем конференция? > > ЕК> Это же относится к ВАШЕМУ "языку рефлексов". > > Действительно, в природе все, так, или - иначе - > соотносится друг с другом. > > ЕК> Елена Елисеева правильно сделала вам замечание, > ЕК> что от повторения слова инстинкт > ЕК> природа сознания совсем не проясняется. > > Где было сделано подобное "замечание"??? > > Например, сразу после введения мной этого нового термина, Елена > Елисеева ( 07/10/99 ) написала: > > ЕЕ> Одни и те же кванты информации могут иметь смысл для одного субъекта, > ЕЕ> а для другого - нет, надеюсь с этим-то Вы согласитесь? > > Да, естественно. И сейчас это воочию проявляется. > > ЕК> Ну, не всё сразу становится ясно. > ЕК> Иногда продвижение вперёд так > ЕК> малозаметно, что становится скучно. :) > > Повторюсь: то, что лично Вам "не всё сразу становится ясно" - > не уважительный повод для подобного "развлечения" на fido7.ru.ai . > Более того: именно потому ВСЕГДА - "продвижение вперёд так > малозаметно"! > > ЕК> Кстати, рассуждение о том, как образуется "паутина смыслов" > ЕК> из первичных смыслов, заданных безусловными рефлексами, > ЕК> есть моём сайте. > > Я рад признанию Вами первичности безусловных рефлексов (БР) > в образовании "смыслов". Интересно, только, Вы по-прежнему > считаете, что: > EK> Аналогия с алфавитом неудачна, поскольку инстинкты > EK> не образуют никакой грамматики. > ( http://www.glasnet.ru/webboard/rus/message.php?id=219315 )? > > EK> Сейчас я разбираюсь с тем, как это образование происходит > EK> технически, в результате самоорганизации ассоциативной > EK> памяти в пресловутом "ассоциативном моторе". > > Желаю Вам успехов, и - чтобы "мотор" - не заглох! > > Ваше письмо здесь, последовательными цитатами, > приведено и прокомментировано полностью. > Хочется, однако, ярче прояснить по поводу "масла масляного". > Вы этого, в применении к фомации, не показали, > а ярлык (свой)- повесили. > Что же до "субъективного сознания", то "субъект" - уже > предполагает наличие сознания, и получается: > "сознание сознательного объекта". Чем не "водянистая водичка"? > > Прощаюсь я с Вами. > Константин > > DATE: !315, 18:20:05 11/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Что почитать о научном изучении сознания > Новый модератор PSYCHE-D Andrew R. Bailey предложил подписчикам 10 > статей по современным направлениям научного изучения сознания. Все они > есть online, некоторые ещё не опубликованы, некоторые широко известны > уже несколько лет и ссылки на них есть на моём сайте. Общий объём этих > 10 статей 800 Кб. С нашим английским, это трудное чтение. Я думаю, > достаточно понять о чём идёт речь, и поразмышлять на эти темы > самостоятельно. > > Главное, на что стоит обратить внимание, и что нужно найти в каждой из > этих работ - это прояснение в чём состоит "трудная задача теории > сознания" The Hard Problem. Что такое логическая брешь (Explanatory Gap) > в переходе от "лёгкой" проблемы распознавания в специально устроенной > материальной системе к "трудной" проблеме субъективного ощущения. > > Естественно, ни по этим ключевым вопросам, ни по многим более конкретным > ещё не решённым проблемам ещё нет полного консенсуса даже в > формулировках. Но, по моему, тема захватывающая и направление > исследований правильное. > > === > > We suggest the following ten papers, five in philosophy and five in > science (all of which are available online); anyone who reads all ten of > these should have a good basis for discussion on this list. > > Ned Block, "On a confusion about a function of consciousness" > http://www.cogsci.soton.ac.uk/bbs/Archive/bbs.block.html > > David Chalmers, "Facing up to the problem of consciousness" > http://ling.ucsc.edu/~chalmers/papers/facing.html > > Daniel Dennett and Marcel Kinsbourne, "Time and the observer: > The where and when of consciousness in the brain" > http://ase.tufts.edu/cogstud/papers/time&obs.htm > > Frank Jackson, "Epiphenomenal qualia" > http://members.aol.com/NeoNoetics/Mary.html > > Michael Tye, "Qualia" > http://plato.stanford.edu/entries/qualia/ > > Bernard Baars, "In the theatre of consciousness" > http://www.imprint.co.uk/theatre.htm > > Francis Crick and Christof Koch, "Consciousness and neuroscience" > http://www.klab.caltech.edu/~koch/crick-koch-cc-97.html > > Arien Mack and Irvin Rock, "Inattentional blindness: an overview" > http://psyche.cs.monash.edu.au/v5/psyche-5-03-mack.html > > Philip Merikle and Meredyth Daneman, "Psychological investigations of > unconscious perception" > http://watarts.uwaterloo.ca/~pmerikle/papers/uncons-percept-full.html > > David Milner and Melvyn Goodale, "The visual brain in action (precis)" > http://psyche.cs.monash.edu.au/v4/psyche-4-12-milner.html > > Andrew Bailey > Philosophy, The University of Calgary > bailey@ucalgary.ca > > === > > Ещё несколько хороших ссылок > > Russian: > > Ю.Б. Гиппенрейтер, "Неосознаваемые процессы" > http://web.psychology.ru/~dsatin/bookshelf/Gipp3.htm > > Г.И. Челпанов, "Об экспериментальном методе в психологии" > http://web.psychology.ru/~dsatin/bookshelf/Chelp.htm > > У. Джемс, "Воля" > http://web.psychology.ru/~dsatin/bookshelf/James2.htm > > У. Джемс, "Поток сознания" > http://web.psychology.ru/~dsatin/bookshelf/James.htm > > А.М. Иваницкий, А.Р. Николаев, "В поисках механизмов сознания" > http://www.psi.med.ru/psychophy/ > > К.Данилов, "Моделирование интеллекта" > http://www.orc.ru/~kdan/ > > Ян Корчмарюк, "Переселение личности" > http://www.spb.rtsnet.ru/aiv/settler.htm > > English: > > Irene Pepperberg, "Communication with Parrots" > http://www.cages.org/research/pepperberg/index.html > > Steve Bunk, "Do apes have feelings?" > www.the-scientist.library.upenn.edu/yr1998/may/research_980511.html > > "The Hard Problem", обзор > http://www.imprint.co.uk/hardprob.html > > Marvin L. Minsky, "Will Robots Inherit the Earth?" > http://www.ai.mit.edu/people/minsky/papers/sciam.inherit.html > > Hans Moravec, "Simulation, Consciousness, Existence" > http://www.ix.de/tp/english/special/vag/6037/1.html DATE: !316, 19:08:06 12/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Возможные темы > Тихо сам с собою я веду беседу... > Вот некоторые традиционные темы о сознании. > > Есть ли сознание у животных? > А у насекомых? У инфузории туфельки? У растений? > > Эволюционное происхождение эмоций. Польза эмоций. > > Что самое непонятное в сознании? > > Как возникают новые идеи? > > Как происходит эволюция идей у одного человека? > > Откуда изобретатель узнаёт, что он на правильном пути? > > Во сколько раз человек умнее обезьяны? > > Важны ли теории языков > для объяснения сознания как субъективного ощущения? > > Важен ли язык для размышлений? Мы мыслим словами? > > Какой язык использует кошка для планирования? > > Есть ли культура (передача традиций) у животных? > > Понимают ли пчёлы "язык пчёл"? > > Зачем детёныши играют? Играют ли насекомые? > > Пройдёт ли когда-нибудь машина тест Тьюринга? > > Примеры разумного поведения простых существ. > > Как происходит обучение? > > Что такое внутренние мотивы? Что такое любопытство? > > Используют ли животные логические рассуждения? > > Каковы минимальные требования к AI? > > Сможет ли искусственный разум превзойти человека? > > Что такое творчество? Есть ли творчество у животных? А у машин? > > Дайте своё определение сознанию, интеллекту, разуму. > > Чем отличается ощущение от восприятия? > > Какое отношение к сознанию имеет подсознание? > > Что в сознании происходит неосознаваемо? > > В чём опасность искусственного разума? > > Как устроен нейрон? > > Обрабатывает ли мозг информацию? > > Кто обладает сознанием, если мозг связан с телом по радио? > Если мозг управляет несколькими телами? > Если мозг управляет только изображением на экране? > > Какова роль органов чувств и действия в работе сознания? > > Если вам интересно что-то из этих тем - пишите. > Среди нас нет профессионалов, не стесняйтесь! > А профессионалов, особенно прошу > потратить немного времени на наше просвещение. > > E.Kornienko DATE: !317, 18:10:30 13/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Обучение у простых животных > Привет участникам соревнований! > > Меня интересуют примеры разумного или сознательного поведения и примеры > научения, запоминания и планирования у простых животных. Чтобы начать > тему повторю одну свою заметку из AnimalMind-List > . > > On Tuesday, April 27, 1999, Steve Wise writes > > > Glenn English сказал, что "животные планируют" и что "мой кот > > мечтает". > > Может ли кто-нибудь привести доводы в пользу этих утверждений? > > Думаю, что мы знаем множество примеров хотя бы очень короткого > планирования у животных, которое отличается от чисто инстинктивного > поведения. Я приведу пример "планирования" у достаточно простого > существа с мозгом не больше булавочной головки. > > Недавно я положил большую корягу (полено) в аквариум с ауратусами. > Сначала рыбы испугались. Пару часов они находились в дальнем углу > аквариума. Потом самец - хозяин территории приступил к изучению коряги. > Через некоторое время он нашёл несколько отверстий, которые выходили в > большое дупло, и начал осторожно проплывать сквозь эти отверстия, всё > время меняя входы и выходы. Типичное поведение рыбки - высунуть голову > из отверстия, осмотреться 5-10 секунд, и медленно выплыть. > > Я понял, что ему понравилось, и достал корягу, чтобы увеличить некоторые > отверстия, сквозь которые он не мог проплыть. Я читал, что ауратусы > любят пещеры с многочисленными входами и выходами. На следующий день > снова положил эту корягу в аквариум. Теперь её никто не испугался. Не > прошло и минуты, как умный самец был уже в дупле. Он начал так быстро > шнырять сквозь все дырочки, как будто заплывая в одну, он уже знал, > через какое отверстие он будет выплывать. > > Из этого опыта я делаю вывод, что ауратус способен, по крайней мере, > сутки сохранять в памяти свои недавно освоенные знания и навыки > пространственной ориентации. Судя по его ловкому поведению, он запомнил > именно эту корягу. А я много раз видел, каким нерешительным может быть > его поведение. Это было не простое "инстинктивное поведение вблизи > коряг". > > Что это значит "помнить что-то в течение суток"? Образы, которые мы (и > ауратус) помним, не разложены по полочкам внутри мозга. Они вовлечены в > динамичный процесс "ассоциативного хранения". Образы циркулируют в > сознании в виде достаточно часто используемых фрагментов. Только > благодаря использованию, они регенерируются и не забываются. Новый образ > или его важная часть может быть потерян (забыт), если он в течение > достаточно длительного времени (несколько минут) не был использован в > каких-то ассоциативных воспоминаниях. И мне приходится признать, что > ауратус вспоминал свои впечатления об этой коряге в то время, когда её > не было в аквариуме. > > Я не могу быть уверен в том, что он "думал" об этой коряге или, что он > понимал, о чём он думал. Возможно, для нас - экспертов в области > думанья, его воспоминания похожи на отрывочный бред с мгновенными > "вспышками просветления". Трудно проникнуть в психику рыбы. :) Я думаю, > что хорошая аналогия для его мыслей - это наши сновидения. Сон не > требует какого-то языка или логики и почти неуправляем. > > Мудрый старец приснился себе мотыльком - > Суету прекратив, он уснул под листком, > И приснился себе мудрым старцем - уснувшим, > И во сне представлявшим себя мотыльком. > > Фактом является то, что ауратус вспомнил эту корягу сразу же, как только > объективные внешние стимулы ассоциативно собрали фрагменты его вчерашних > впечатлений в единый узнаваемый образ, и его сон материализовался. > > Самец узнал запах коряги, увидел её, и его вчерашний опыт, визуальные, > обонятельные, осязательные и двигательные образы вновь сложились в > узнаваемое и поддающееся планированию (прогнозу) поведение. Рыбка > заплывает в одно из отверстий и в этот момент узнаёт вчерашнюю ситуацию > и предвидит, (то есть вспоминает), где она окажется через долю секунды. > И ещё не оказавшись внутри дупла, она принимает решение, из какого > отверстия она будет выплывать. Это такое же (обычное) упреждающее > поведение, которое она использует при погоне за жертвой. И погоня, и это > быстрое шнырянье сквозь отверстия в коряге говорят о способности > ауратуса к короткому планированию, (то есть предвидению, продумыванию в > более быстром темпе, чем это произойдёт физически) хотя бы на секунду > вперёд. > > Таким же краткосрочным предвидением объясняется парадоксальное > восприятие смены цвета до того, как оно физически произошло. Об этом > опыте рассказывала Елена Елисеева (msg_03_37_03__21_10_99). В коротких > интервалах времени мы воспринимаем не то, что есть, а то, что "должно > быть" в соответствие с нашим прежним опытом. Нужно ещё учесть, что в > опыте со сменой цвета само восприятие становится осознаваемым (понятым) > более чем через 0.2 секунды позже события. Мы "предвидим" то, что уже > произошло, и при этом ошибаемся. :) > > Другой пример предвидения у аквариумных рыбок. Однажды я заметил, что > гурами больше других любят бананы. И решил проверить их память. Я > положил кусочек банана на дно аквариума в плохо видное место под > скорлупу кокосового ореха. Рыбы нашли его по запаху. Гурами вдыхают > воздух на поверхности воды, поэтому им нужно раз в несколько минут > подниматься на поверхность. Банан был расположен так, что на пути к > поверхности было сильное течение от фильтра. Поэтому с поверхности > нельзя было сориентироваться ни зрительно, ни по запаху. Тем не менее, > глотнув воздух, гурами поплыла к скрытому под кокосовой скорлупой банану > почти по прямой линии сквозь течение. > > И здесь наблюдалось быстрое (с одной попытки) научение, хорошая > пространственная ориентация, память, и "спланированное" возвращение в > желаемую точку. Ни один из этих признаков поведения не может быть > безусловным, автоматическим, всегда точно повторяемым рефлексом. > > Eugeny Kornienko DATE: !318, 17:07:01 14/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Почему мозг не применяет "внутренний язык" > В сообщении On 4 March 1998 в листе рассылки Psyche-D Aaron Sloman > соглашается с Chris Malcolm, что > > > смысл появляется, когда происходит кодирование информации в некий > > язык. При этом, если такое кодирование (использование) происходит > > чисто механически, то смысл уже есть, а сознания ещё нет. > > Я думаю, что сознание и "смысл" не связаны с языком. По крайней мере, > всё не так прямолинейно. > > Когда говорят об информационных объектах и их взаимосвязи, например, > средствами "языка", то это похоже на взаимодействие физических объектов > через сформулированные законы природы. В обоих случаях действует некая > семантика, например, грамматика или дифференциальные уравнения. Но сами > физические объекты взаимодействуют в силу своих свойств, а не в точном > соответствии с выдуманными нами уравнениями. > > Семантическая или физическая информация предполагает такое положение > вещей, когда то, что будет, зависит от того, что есть, а не от того, что > было. > > Правильный ход в шахматной партии зависит от позиции на доске, а > не от того, каким образом эта позиция возникла. Решение основной массы > полезных дифференциальных уравнений зависит от начальных условий, а не > от того, каким путём эти условия образовались. > > Суть семантической информации заключается в том, что "начальные условия" > имеют приписанный смысл. Используя начальные условия и семантические > правила, можно вывести будущие условия, если в задаче нет слишком > больших неопределённостей. > > Органы чувств и действий, снабжённые памятью, тоже могли бы оперировать > осмысленной (в терминах физического устройства каждого органа) > информацией. На уровне каждого отдельного "физического" органа эта > информация ещё сохраняет физический смысл. В частности, её можно было бы > использовать для предсказания будущих ощущений данного органа. > > Однако, основная память сосредоточена не в органах, а в мозгу, так как > сознание требует скоординированной работы всех органов. Технология такой > координации не может быть семантической, так как координирующий орган > (мозг) изолирован от осмысленной физической информации. Кроме того, > разные органы оперируют разными, физически несравнимыми воздействиями, > например, теплом, силой и яркостью. Эти величины можно было бы сравнить, > если подставить в уравнения с размерными, то есть осмысленными, > коэффициентами. > > Но мозг не решает уравнений, и не может содержать слишком много > предопределённых смыслов о внешнем мире, к которому он не имеет > физического доступа. Задача мозга - предсказать, что будет дальше: какие > будут ощущения, и какие будут действия. Если эти предсказания > оказываются правильными, а действия полезными, то такое существо в итоге > выживает. > > Мозг находится в безвыходном положении. Он не может использовать > семантику, то есть осмысленные символы, и вынужден делать прогноз на > основе динамики, истории, того что было. Текущий процесс считается таким > же, как некий хранимый в памяти похожий прежний процесс (совокупность > сигналов от всех органов). Из прежних поведений мозг "предсказывает", то > есть воспроизводит такое поведение, которое раньше приводило к лучшему > результату. > > Такой динамический несемантический прогноз работает благодаря тому, что > и "семантические", осмысленные уравнения подчиняются динамическим > законам. Уравнения, описывающие поведение физических объектов, например, > внутренних систем организма, имеют не только осмысленные "начальные > условия" и "решения", но и осмысленный "процесс решения", то есть > историю. > > Любую динамику можно закодировать в виде протокола осмысленных > последовательных значений, а затем использовать этот протокол для > "узнавания". Такое динамическое узнавание похоже на "решение" уравнений > по таблицам. Мы можем найти синус числа из таблицы, а можем рассчитать > его, используя волновое уравнение. > > Конечно, семантическая информация более "ёмкая". Уравнение записывается > гораздо короче, чем таблица решений этого уравнения, и содержит больше > "знаний", чем может поместиться в любую таблицу. Поэтому, хорошо > устроенные специализированные органы чувств, физически "решающие > уравнения", сильно разгружают мозг, освобождая его от рутинной работы по > детальному обслуживанию органа. > > Развитие органов, их точное взаимодействие с миром, развивает и > сознание. Оно становится способным работать с языком и формулами, > имеющими больший "приписанный" смысл. При этом мозг остаётся > "динамическим решателем", как при хороших органах чувств, так и при > слабо развитых. Но именно ассоциативный мозг, а не органы, обеспечивает > способности к обучению и к творчеству. Автоматическая работа органов не > осознаётся, какой бы точной она ни была. А творческая работа и трудная > учёба требует осознавания, какой бы малой ни была доля творческой работы > в общей работе нервной системы. > > Там где есть семантика, формализованные, отлаженные связи между > "осмысленными" объектами там - автоматическое поведение. Там где > ненадёжное узнавание, ассоциации, поиск неизвестного - сознание. > > E.Kornienko DATE: !319, 23:17:41 15/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Техническое задание > Наверно, мои рассуждения иногда кажутся слишком абстрактными, > оторванными от реальности. Для меня это, конечно, не так. "Приземлённые" > источники этих "абстракций" - литература о поведении животных, переписка > в конференциях о сознании, и просто опыты с моей программой, реализующей > один из вариантов ассоциативного мозга. > > Вот из этих конкретных вещей и выходит, что философский разбор отношения > между материальным и идеальным, между субъективным и объективным, > логический анализ трудностей, которые возникнут в пока несуществующей > теории сознания, конструктивно важны для разработки алгоритмов, > призванных обеспечить самообучение конкретных искусственных существ. > > В этой заметке я ещё раз покажу, что о сознании можно судить только по > поведению, и попробую сформулировать задачу для программиста, который > намерен соревноваться с природой в создании мозга для > самообучающегося существа. > > Как это ни кажется парадоксальным, но у нас нет прямых и объективных > свидетельств сознания. Зато у нас есть субъективные свидетельства, > некоторые из которых более весомы, чем объективные. :) > > Во-первых, не существует, (а может, никогда и не будет) общепризнанного > определения сознания, интеллекта и разума. По этой причине мы не можем > выполнить какой-то тест, который убедит всех в том, что некая вещь > обладает сознанием. > > Во-вторых (вот оно - самое весомое свидетельство существования разума), > каждый из нас на 100% уверен, что лично он обладает сознанием. Из этого > факта мы делаем менее надёжный (99.99999999%), но с научной точки зрения > очень надёжный вывод, что все люди разумны, "потому что они похожи на > меня". > > Дальнейшие умозаключения делят людей на 3 группы. > > (1) Кто-то считает, что наиболее развитые обезьяны и дельфины имеют > сознание, а кошки и мышки - нет. > > (2) Кто-то верит в сознание кошки, но не червяка. > > (3) Есть даже отдельные энтузиасты, которые допускают, что камни и трава > тоже чувствуют что-то своё. > > Все эти мнения являются экстраполяциями из двух надёжных аксиом: "Я > обладаю сознанием" и "Я похож на другие вещи". > > Допустим, искусственный разум уже создан. И мы сделали кибер-кота, > который ведёт себя как настоящий кот. Я думаю, что эксперты из группы > (1) не смогут поверить, что этот кот обладает сознанием, а эксперты из > группы (3) очень легко признают кота разумным. > > Может показаться, что ситуация безнадёжна, и мы никогда не выясним, > обладает ли искусственный кот сознанием "на самом деле". > > Не всё не так плохо, ведь возможна "экспертная оценка", подобная той, > которая применяется в тесте Тьюринга. При помощи такой оценки, > выполненной специалистами в области сознания и в области поведения > животных, мы можем распределить всех животных от гидры до человека по > "шкале разумности". Затем эксперты дадут оценку кибер-коту, и он > окажется где-то на этой шкале, получив свою долю нашей веры в его > способность любить, страдать, хитрить. > > Зачем далеко ходить, я готов дать первую экспертную оценку > искусственному существу: Интеллект Windows больше, чем у бактерии, но > меньше, чем у мышки. Сознание Microsoft (как организма) сильнее, чем у > кузнечика, и слабее, чем у кошки. :) > > Ясно, что потребуется много работы для накопления статистики. Для начала > нужно выявить "опорные" существа (о которых будет получено наиболее > согласованное мнение разных экспертов) в различных классах: интеллект, > сознание, разум, чувствительность, изобретательность и т.д. > > И вот мы создали кибер-человека, который ведёт себя ну точно, как > обыкновенный человек. Те, кто признает, что этот человек обладает > ощущениями и сознанием, признают также, что он осознаёт себя. Ведь это > видно по его поведению. Если вдруг выяснится, что он не отличает себя от > шкафа, то такое поведение нельзя будет назвать "обычным человеческим > поведением". > > Применим эту логику к кибер-коту или кибер-муравью. Если этот муравей не > пытается схватить одну из шести своих лапок, чтобы отнести её в > муравейник, значит, он отличает лапку от других вещей. Приходится > признать, что он понимает, с какой-то своей степенью понимания, что его > лапка - часть его тела, а не щепка или не лапка другого муравья. > Возможно, он пытался её хватать, но понял, что этого больше делать не > надо. Также и ребёнок суёт в рот свою руку и ногу, пока не поймёт, что > есть более привлекательные вещи. Заодно он понимает, что это его > собственная рука и нога. > > Много лет назад обезьяна считалась таким же бездушным животным, как ёжик > или любой из лесных зверей. А сейчас, в результате более тесного > изучения поведения обезьян, мы готовы признать, что они думают, применяя > свои слова. Я слышал, что одну обезьяну приучали к языку жестов. Она > освоила сотни слов и даже изобрела новые. Например, она назвала лебедя > "водяной птицей". > > Итак, различие животных по уровню развития сознания (и ума) является > научным фактом. Таким же фактом является зависимость уровня сознания от > величины мозга. По этому параметру люди, дельфины и обезьяны находятся в > первых рядах. Кто-то, вроде улитки, замыкает список. А бактерии вообще > не имеют мозга. > > Задачу создания кибер-кота можно разделить на две части: создание тела и > создание мозга. Начнём с мозга, чтобы выполнить ещё один мысленный > эксперимент. Допустим, мы сделали маленький, но надёжный, искусственный > мозг. И заменили живой мозг живого кота на этот "протез". Сначала > бедному коту придётся нелегко. Всему придётся учиться заново, так как в > его новом мозгу ещё нет опыта взаимодействия с реальным телом кота. Но > мы сделали мозг хорошо, и довольно скоро кот восстановит свои физические > навыки, и продолжит свою интересную жизнь в общении с другими > лабораторными котами. > > А кого только нет в этой лаборатории по разработке кибер-котов! Итак, > после необходимой реабилитации, обучения в играх и привыкания друг к > другу коты занялись своими кошачьими делами. Мы видим, что настоящий > кот, живой кот с кибер-мозгом, и кибер-кот из синтетических материалов > признали друг друга. Они играют или дерутся как уличные коты, не > спрашивая, кто какой национальности. > > Один из выводов, который следует из этого выдуманного опыта, состоит в > том, что сознание и осознавание себя возникают не в мозгу. Они возникают > у тела, снабжённого мозгом, в то время когда это существо наблюдает себя > и своё поведение в реальном заинтересованном взаимодействии с реальным > миром. > > Следовательно, искусственный разум не сводится к искусственному мозгу. > Разум развивается вместе с поведением, а также в процессе обучения и > накопления выработанных ранее культурных (интеллектуальных) традиций. А > мы судим о развитии сознания, сравнивая поведение данного существа с > поведением других менее и более смышленых животных. > > Сейчас уже возможно снабдить робота органами чувств, которые более > чувствительны и имеют больший динамический диапазон, чем органы > человека. Но универсальный мозг для обслуживания ЛЮБЫХ органов чувств > пока не изобрели. Универсальный мозг не настроен на специфические > физические особенности органов. Он общается с ними по совершенно > одинаковым нервным каналам связи. > > Искусственный мозг нашего живого кота подключен к нервным окончаниям, > приходящим от разных органов. Как он может понять и различить смысл > разных нервных импульсов? > > Но в таком же положении находится и живой мозг. Нервные импульсы от > разных органов принципиально ничем не отличаются. Я не буду сейчас > говорить о специализации различных участков мозга. Эта специализация > является результатом того, что к различным участкам подходят нервные > волокна от разных органов, и не умаляет универсальность мозга как > изолированной от физического взаимодействия с миром информационной > машины. > > Итак, раз уж мозг не имеет физической связи с миром, то ему всё равно, > какое тело обслуживать. > > Мы могли бы использовать тот же самый искусственный мозг для вживления в > голову собаки, а не кота. И, следовательно, задача создания > искусственного мозга может быть решена независимо от создания органов > чувств. > > Разработку универсального мозга начнём с простого технического задания. > > Мы проводим соревнование среди программистов. Жюри соревнования, > состоящее из специалистов по роботостроению и поведению животных, > разрабатывает искусственного кота с минимальным количеством управляющих > каналов, которые, тем не менее, должны обеспечить полноценное поведение > этого существа при соответствующем управлении. > > Допустим, этот кот имеет не более 10 входов для управления различными > системами, и не более 10 выходов от органов чувств, в том числе и от > датчиков, контролирующих исполнительные механизмы. Сигналы, которые > нужно подавать и принимать от этих каналов, имеют всего 2 или 3 > значения. Например, > > 0в (шум слева сильнее), +1в (шум справа сильнее) > 0в (увеличить скорость), +1в (уменьшить скорость) > 0в (батарея заряжена), +1в (требуется зарядка) > > Важное требование к универсальности мозга состоит в том, что разработчик > мозга не знает, какой канал за что отвечает. А разработчики кибер-кота > могут изменять его конструкцию, заменять и добавлять новые механизмы, не > сообщая об этом разработчикам мозга. > > Итак, разработчик мозга имеет 10+10, а в более сложном случае просто 20 > ненумерованных проводов, к которым надо подключить универсальный мозг. > > Каждому участнику соревнования выдаётся коробочка с 20 клеммами. Из этой > коробочки происходит управление котом по радио. На арене несколько > одинаковых котов. В креслах жюри - эксперты по поведению животных. > Программисты подключают проводки, и коты оживают. > > Конечно, не так просто научиться более-менее разумному поведению с нуля. > До приглашения жюри можно дать котам сутки (или неделю, или месяц?) на > самообучение. В итоге побеждает тот кот, который покажется жюри > наиболее способным "любить, страдать, хитрить". > > Чем разумнее поведение, тем лучше искусственный мозг. Если эксперты > будут вынуждены признать, что чей-то кот обладает сознанием, то мы будем > рады признать, что искусственный разум создан. > > Eugeny Kornienko DATE: !320, 22:29:30 16/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Почему мозг не применяет "внутренний язык" > Среди кибернетиков и среди НЛП-психологов распространена такая точка > зрения, что мозг думает на особом внутреннем языке "языке мыслей". > Можете почитать об этом большую энциклопедическую статью "The Language > of Thought Hypothesis" > http://plato.stanford.edu/entries/language-thought/ > > Другим специалистам эта гипотеза представляется наивной и имеющей кучу > дефектов. Я тоже считаю, что мозг скорее похож на усилитель, чем на > калькулятор, и его функция состоит не в поиске смысла и не в обработке > осмысленной структурированной информации, а в преобразовании сигналов. > > О том как такой (ассоциативный) мозг позволяет своему хозяину найти > смыслы и выделить объекты я уже писал, но могу как-нибудь повторить > более подробно. > > У новорожденного мозга не может быть изначальных знаний, которые > требуются для структурного разбора данных. Смысл логических данных > заключён не в них самих, а в их источнике и в их интерпретации. Данные > отражают и символьно обозначают свойства объективного источника. > Поскольку источники могут иметь самую разную природу, то невозможно > иметь семантический алгоритм на все случаи жизни. Не удивительно, что > его до сих пор не изобрели. > > Правильный семантический разбор требует понимания сущности источника > данных. Такое понимание возможно только у субъекта способного проверить > своё понимание. Должна быть выработана гипотеза об устройстве источника, > выполнена "формализация" этой гипотезы, сделан модельный "расчёт" > данных. И если этот расчёт совпадёт с реальными данными, то гипотеза > оправдается, и соответствующий формальный (семантический) метод будет > годиться для семантического разбора. Такая задача часто не под силу > реальному разуму. Что уж говорить об отдельном нейроне или нейронной > сети. > > Так что, все алгоритмы, требующие составления словаря, анализа фраз > (поиск одинаковых контекстов, частых повторений, сочетающихся слов, и > т.д.), синтеза фраз и т.п. могут годиться только для конкретной > ограниченной задачи, например, для шахматной программы, но не для общей > задачи моделировании разума, обладающего универсальной способностью к > решению любых задач. > > Не нужно требовать, чтобы логический нейрон или другой структурный > элемент искусственного мозга "понимал" входной поток данных. По аналогии > с живым нейроном он только должен уметь правильно "интерполировать", то > есть как-то обрабатывать, преобразовывать входные сигналы в соответствии > со своим опытом. Отсутствие необходимости в структурном разборе данных > не усложняет, а упрощает универсальный мозг. DATE: !321, 00:01:05 17/11/99 USER: Тармо Пикаро MAIL: tpikaro@turkuamk.fi SUBJ: Идея - смешанная логика... > Предлагаю ввести новое понятие - смешанная логика. > В чём отличие от нашей обычной логики ? > Мы привыкли мыслить все объектами и поэтому наше мысление может давать > нам недостаточно точное представление о динамике природы. > (предположение такое , не стоит останавливать внимание на этом) > > Поясню мою идею - > (привычное начало...) рождается интеллект. сначала он видит число > '0'. Ему ничего не остается , как взять новое понятие '0' в > употребление , вне зависимости от того , как он будет воспринимать это > - если известно всего лищь одно понятие - то особенно выбора нету. > Потом его взору предстает число '1' (или скажем он видит цвета- для упрощения я > применил числа) он замечает что он не знает это новое понятие и это > новое понятие не '0' - тогда он не создает новое понятие '1' , как это > предпологается нашей привычной логикой , а он создает новое понятие > 'не 0' - т.е. он предполагает , что это новое понятие может быть и '2' и > '3' и '1' и тд - и если новых понятий не появится - то '1' так и > останется в смешанном состоянии , т.е. '1' может быть равен '2' или '3' > или '2,345'. > > Однако это все должно не просто кончатся геометрической линией с > отрезками для каждого понятия. Моё предположение , что каждое новое > понятие должно давать новое измерение. Однако нам этим надо ещё > поразмыслить - но как вам идея ? > > Впрочем ... чего я пытаюсь доказать - может нечто подобное уже существует? > > //Тармо. DATE: !321, 23:14:14 17/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Мысленный эксперимент, перевод > Stanford Encyclopedia of Philosophy > > Мысленный эксперимент > http://plato.stanford.edu/entries/thought-experiment > > Мысленный эксперимент - это средство для исследования природы при помощи > воображения. Достаточно вспомнить несколько известных мысленных > экспериментов, чтобы увидеть их огромное влияние и важность для науки: > демон Максвелла, лифт Эйнштейна, кот Шредингера. Ещё в 17 веке мысленный > эксперимент применяли такие блестящие умы, как Галилей, Декарт, Ньютон и > Лейбниц. Создание квантовой механики и теории относительности в наше > время было бы немыслимо без использования мысленных экспериментов. > Галилей и Эйнштейн, вероятно, были самыми известными "мысленными > экспериментаторами", но они не были первыми. Мысленный эксперимент > применялся и в средние века и в древние времена. > > Один из наиболее красивых ранних мысленных экспериментов (Лукреций, De > Rerum Natura) пытался доказать, что пространство бесконечно: Если > имеется граница вселенной, то мы можем выстрелить в неё из лука. Если > стрела пролетит насквозь, то это вообще не граница, а если стрела > отскочит назад, как от стены, то у этой космической стены должна быть > другая сторона, и, значит, что-то должно быть за предполагаемым краем > пространства. В обоих случаях граница вселенной не достигается; > следовательно, пространство бесконечно. Этот пример хорошо иллюстрирует > многие общие особенности мысленного эксперимента: Мы воображаем > некоторую ситуацию; выполняем действия; видим, что получается. Этот > пример также показывает возможность неверного вывода. (В данном случае > мы уже знаем, что пространство может быть неограниченным и конечным.) > > Часто реальный аналог мысленного эксперимента невозможен по физическим, > техническим или простым практическим причинам; но эти условия не мешают > проведению мысленного эксперимента. Главное в том, что мы, кажется, > способны проникнуть в тайны природы при помощи одной только мысли. Вот > это и представляет интерес для философии. Можно ли узнать что-то (явно) > новое о природе без новых эмпирических данных? > > Эрнст Мах (кажется, именно он начал использовать термин > Gedankenexperiment) приводит интересное эмпирическое рассуждение в своей > классической "Науке Механике". Он говорит, что мы обладаем большим > запасом полученных из опыта "инстинктивных знаний". Они совсем не > обязательно должны быть ясно сформулированы, но они практически > применяются в некоторых обстоятельствах. Один из его любимых примеров > придумал Simon Stevin. Если перевесить цепь через ребро несимметричной > двойной наклонной плоскости без трения, как на рис.1a, то в какую > сторону она соскользнёт? Мысленно добавьте несколько звеньев цепи как на > рис.1b. Теперь всё очевидно. С самого начала цепь находилась в > статическом равновесии. Иначе, мы получили бы вечный двигатель, но, в > соответствии с нашим основанным на опыте "инстинктивным знанием", > говорит Мах, это невозможно. > > o > o o > o o > o o > > Рис.1a > > o > o o > o o > o o > o o > o o > o o > > Рис.1b > > "A Function for Thought Experiments" Томаса Куна эксплуатирует многие > концепции (но не терминологию) его известной "Структуры Научных > Революций". По его мнению, хорошо убеждающий мысленный эксперимент может > привести к кризису или, по крайней мере, к выявлению несогласованности в > царствующей теории, и, таким образом, внести вклад в смену парадигмы. > Итак, мысленный эксперимент способен научить нас чему-то новому о мире, > даже если мы не используем новых данных, помогая нам более рационально > перестроить наши представления о мире. > > В последнее время интерес к мысленному эксперименту заметно увеличился. > Brown (1991) и Norton (1991, 1996) представляют предельные позиции от > платоновского рационализма до классического эмпиризма, соответственно. > > Norton утверждает, что любой мысленный эксперимент - это реальный > (возможно неявный) аргумент; он исходит из опыта и использует логические > или индуктивные правила вывода результата. Живописные подробности любого > мысленного эксперимента, делающие его похожим на настоящий эксперимент, > могут быть психологически полезными, но они, строго говоря, излишни. > Итак, говорит Norton, мы никогда не выходим за рамки эмпирических > предпосылок, против чего не стал бы возражать ни один эмпирик. > > Brown придерживается другой позиции. В некоторых особых случаях мы всё > же отбрасываем старые данные, чтобы получить новые априорные знания о > природе. Галилей показал, что все тела падают с одинаковой скоростью при > помощи блестящего мысленного эксперимента, что привело к крушению > царствующих в то время Аристотелевских взглядов. Они заключались в том, > что тяжелые тела падают быстрее, чем лёгкие (Т > Л). Но рассмотрите > рис.2, на котором тяжелое пушечное ядро (Т) и легкая мушкетная пуля (Л) > соединены вместе и образуют новый более тяжёлый предмет (Т+Л). Он должен > падать быстрее, чем пушечное ядро. Но он же должен падать медленнее, чем > пушечное ядро, так как лёгкая мушкетная пуля должна тормозить движение > тяжёлого ядра. Мы получили противоречие. (Т + Л > Т и Т > Т + Л) Это и > конец теории Аристотеля, и правильный очевидный вывод: все они падают > с одинаковой скоростью (Т = Л = Т + Л). > > O-o O o > Т+Л Т Л > > Рис.2 > > Говорят, что это априорные (выдуманные, а значит ненадёжные) знания о > природе, так как не использовались никакие новые данные, не было сделано > логического вывода из старых данных, и они не являются чисто логической > истиной. Такое понимание мысленного эксперимента развивается далее путём > привязывания априорной эпистемологии к прежним представлениям о законах > природы как связях между существующими абстрактными сущностями. Этот > вполне платоновский взгляд не слишком далёк от платоновского подхода к > математике, который отстаивается Гёделем. > > Два представленных здесь взгляда могли бы расположиться на > противоположных концах спектра позиций, с которых рассматривается > мысленный эксперимент. Есть удачные новые альтернативные взгляды, > например, Sorensen в духе Маха считает, что мысленный эксперимент - это > "предельный случай" обычного эксперимента; он способен достичь своей > цели без фактического выполнения. В своей книге Sorensen обсуждает > мысленный эксперимент в философии разума, в этике и других разделах > философии и науки. Есть и другие перспективные идеи. Gooding особо > подчеркивает похожесть технологий в мысленном и реальном экспериментах. > Miscevic и Nersessian связывают мысленный эксперимент с "ментальными > моделями". Horowitz и Massey (1991) тоже имеют несколько перспективных > работ на эту тему. > > Copyright ї 1996 by > James Robert Brown > University of Toronto > jrbrown@chass.utoronto.ca > > First posted: December 28, 1996 > Last modified: January 4, 1997 > > p.s. Список литературы пропущен. DATE: !322, 20:49:49 18/11/99 USER: Eugeny Kornienko MAIL: korn@glasnet.ru SUBJ: Техническое задание > Конечно, слишком общее "техническое" задание из моего предыдущего > сообщения совсем не простое. Можно считать его задачей-максимум. > > В этом сообщении я хочу привести задачу-минимум. Это действительно > выполнимая задача, и её решение может служить тестом на возможность > продвижения к более сложной задаче: созданию абстрактного мозга с > большим числом информационных каналов. > > Проблему создания адаптирующейся системы (существа) > можно сформулировать так. > > Задана целевая функция "желание" или "потребность" W(S). > S(t) - данные, поставляемые органами чувств. > Система вырабатывает действия E(t) по отношению к миру. > Ощущения S(t) в какой-то степени (но далеко не однозначно) зависят от > этих действий. Требуется найти такие действия E(t), чтобы минимизировать > текущее среднее значение целевой функции W(S(t)). > > При решении такой задачи можно использовать знания о мире, а можно > пытаться создать универсальные средства адаптации. По-моему, создание > искусственного сознания лежит на пути универсальной адаптации. > > Попробуем построить простейшую, но всё же универсальную в своём классе > систему, демонстрирующую способность к самообучению. > > В этом примере не нужно вводить случайных, не обусловленных поведением > E(t), влияний мира на S(t). Пусть всё будет строго закономерно. > > Пусть W==S(t) - это поток чисел. 0 означает, что потребность > удовлетворена, 1 - не удовлетворена. Значение числа W имеет > предопределённый смысл для системы. Можно интерпретировать его как > безусловный рефлекс - жизненно необходимую потребность. > > Действие системы E(t) тоже представляет собой поток чисел. Будем > интерпретировать это действие, как перемещение "точки" по окружности. > E=0 - перемещение на dx по часовой стрелке, E=1 - перемещение на dx > против часовой стрелки. Перемещающаяся точка - это и есть наше > искусственное существо, а окружность - это геометрия мира, в котором оно > живёт. > > В одной из точек окружности, например, там где у часов находится цифра > 12, размещён "стимул". Наше существо имеет только одно > "детерминированное" чувство W=S(t). > S=0 при совпадении координаты существа с координатой стимула, > и S=1 если эти координаты не совпадают. > > Требуется построить алгоритм поиска оптимального поведения E(t), > обеспечивающее минимальное среднее значение W(S(t)). > > Важно учесть следующее ограничение: > > Алгоритм поиска поведения, а также датчики S и E должны быть > изолированы от сведений о том, что E(t) имеет смысл перемещения по > окружности. Координаты точки и стимула, значение dx, направление > перемещения не должны быть доступны этому алгоритму. E(t) должно > зависеть только от S(t). > > В терминах объектной независимости это означает, что система содержит > > (1) Мозг, получающий поток W(t) и вырабатывающий поток e(t). > Только мозг занимается поиском оптимального поведения e(t). > > (2) Орган чувств S, вырабатывающий сигнал 0 и 1 в зависимости от наличия > или отсутствия контакта со стимулом. > > (3) Датчик желания, > вырабатывающий сигнал W(t) в зависимости от значения S(t). > > (4) Орган действия E, получающий от мозга сигнал e(t) и вырабатывающий > "направление движения" E(t) по отношению к миру. > > (5) Внешний мир, перемещающий точку вдоль окружности в зависимости от > сигнала E(t). Кроме того, внешний мир сообщает органу S о наличии > контакта точки со стимулом. > > Если вам не до конца ясна задача изолированности указанных объектов, то > представьте себе, что блок "внешний мир" и блок "органы и датчики" > разрабатывает жюри. Вы не знаете об устройстве этих объектов и об их > "интерпретации" сигналов мозга, который разрабатываете вы. > > Правильное поведение нашего существа, которое оно должно изобрести > самостоятельно, заключается в суетливых движениях влево-вправо около > стимула. > > Желаю удачной охоты! DATE: !326, 06:29:15 22/11/99 USER: Тармо Пикаро MAIL: tpikaro@turkuamk.fi SUBJ: Теорема Гёделя о неполноте - философские аспекты. > Пересылаю один полезный текст. > > Date: 1999/10/28 > Author: Andrew S. Bogatyrev > NewsGroups: relcom.sci.philosophy > > (перевод) > > Значение теоремы Гёделя о неполноте. > > Сперва позвольте мне попытаться ясно объяснить, что же он доказал. > Доказательство начинается с того, что Гёдель (умер в 1973) определяет > простую символьную систему. > Вводятся понятия "переменная", "утверждение", "доказательство" - > последовательность выражений, упрощающих доказываемую формулу > до уровня постулатов-аксиом при помощи разрешенных преобразований. > Гёдель определяет систему достаточно сложную для выполнения простейших > арифметических действий (сложения), но не более сложную. > > Далее Гёдель указывает, что следующее утверждение есть часть системы: > выражение P, которое утверждает > "не имеется доказательства для P". > Если P истинно, то доказательства для P нет. > Если P ложно, то имеется доказательство для P, то есть P истинно > и мы имеем противоречие (доказательства нет, но оно есть). > Таким образом, внутри нашей системы не может быть определено > является ли P истинным. > > Как я вижу, это по сути известный "Парадокс лжеца", обобщенный > на все символьные системы. Парадокс этот состоит в том, что некий > человек заявляет: "То, что я говорю - ложь". Это тот же самый парадокс, > имея в виду, что человеческий язык - тоже символьная система. > > Доказательство Гёделя построено так, чтобы подчеркнуть, что выражение > P _обязательно_ является частью системы, а не чем-то произвольным, > что некто выдумал. Гёдель НУМЕРУЕТ все возможные доказательства (выводы) > > и выражения в заданной символьной системе (предлагает способ нумерации), > > перечисляя их в определенном лексикографическом порядке. > Вслед за тем, как Гёдель показывает существование этого вышеупомянутого > "выражения Гёделя" - P - он показывает также, что имеется бесконечное > число аналогичных Гёделевских утверждений в данной системе, > и что даже если они были тщательно пронумерованы и (поскольку они > невыводимы из аксиом) добавлены к исходному набору аксиом (набор > постулатов был расширен), то даже после этого можно выявить бесконечно > много новых Гёделевских утверждений. Это продолжается бесконечно, > что доказывает невозможность избавиться от Гёделевских утверждений > (путем добавления их в набор аксиом или как-то иначе) - все символьные > системы будут содержать их. > > [Мораль в том, что недоказуемые утверждения есть и будут всегда. > Это значит, что есть не только ИСТИНА и ЛОЖЬ, но и НЕОПРЕДЕЛЕННОСТЬ. > Двузначная логика неадекватна - А.Б.] > > Обеспокоенный математик попытается сказать, что Геделевские утверждения > вообще не относятся к делу, что они не являются частью математики и > не имеют ничего общего с числами, поэтому их можно > просто проигнорировать... это рассуждение, которое опускает математика > до уровня инженера, если не хуже. Если мы стоим за соблюдение > принципа "чистоты знания", то доказательство Гёделя абсолютно уместно. > > В добавок ко всему, имеются некие известные математические феномены, > которые проявляют свойство Гёделевской неполноты. > Например, в теории множеств математики определяют разные степени > (уровни) бесконечности, основываясь на количестве элементов > множества. Первая степень бесконечности, называемая "алеф-нуль", > есть число целых чисел или рациональных чисел (эти два множества > равномощны). Вторая степень бесконечности есть алеф-нуль возведенная > в степень алеф-нуль (рассматривается N-счетный вектор, > каждый элемент которого имеет мощность N, где N -мощность алеф-нуль). > Долгое время математики пытались понять, является ли мощность множества > действительных чисел, обозначаемая C, второй степенью бесконечности? > В конце концов было доказано, что является ли C равным второй степени > бесконечности - это вопрос аксиоматики. Это утверждение не может быть > доказано или опровергнуто из набора существующих аксиом математики. > Это утверждение образует новую аксиому ("аксиому выбора"), > каковыми оказываются все Гёделевские утверждения. > Так, мы видим первое из утверждений Гёделевского типа, > которые мы вероятно встретим изучая математику. > > Разумеется, более знакомым примером является постулат параллельности > из геометрии, поскольку он не может быть выведен из остальных аксиом > Эвклидовой геометрии, и в данном случае то, как мы определим его, > приводит нас к как минимум трем разным непротиворечивым системам. > > Что означает, что символьная система, основанная на выводимости > истины из аксиом, является неполной? Как можно создать полную систему, > в которой КАЖДОЕ выражение однозначно истинно или ложно? > Единственный путь сделать это - включить в набор аксиом бесконечное > число утверждений, которые однозначно описывают все случаи, > которые встречались в прошлом, настоящем и будущем. > Этот подход срабатывает только в детерминированном пространстве, > и было бы крайне трудно отыскать различие между такой "полной системой" > и реальностью как таковой. > > Раздумья об объеме необходимых данных есть, возможно, правильный путь: > это и есть причина того, что символьные системы неполны. > символьные системы, которые мы используем для описания Вселенной > не являются чем-то отдельным от этой Вселенной: они - часть Вселенной > в точности так же, как мы сами - часть Вселенной. Поскольку > мы содержимся внутри системы, наше "понимание/знание" есть "система, > моделирующая сама себя" (где под "системой" в данном случае понимается > вся "реальность"). Полнота этой системы никогда не может быть > достигнута, > благодаря основному парадоксу ссылки-на-себя: модель содержится > внутри Вселенной, посему если предположить, что модель (разум, идея) > есть нечто внешнее по отношению ко Вселенной, то Вселенная должна > включать и эту модель, то есть Вселенная должна быть больше > самой себя (ибо модель еще и внутри). Или, можно рассуждать итеративно: > модель моделирует Вселенную. Вселенная содержит модель в себе. > Модель должна смоделировать и себя саму. Модель должна смоделировать > модель самой себя. И так далее до бесконечности, до опупения. > > Поэтому Гёделева неполнота - это нечто, чего следует ожидать. > Это нечто, что может быть понято даже интуитивно, > без математического подхода к доказательству: понятие неполноты, > незавершенности в частности ясно просматривается в учении Дзен-буддизма. > > Раз имеется парадокс, причем наблюдаемый в реальности, то ум пытается > разрешить его. Существует идея о том, что сознание являяется > над-множеством Вселенной, и через сознание мы можем познать Вселенную. > Если мы осознаем, что Вселенная плюс наше сознание образуют систему, > которую мы все равно должны (хотим) "познать", то этот подход > не срабатывает - ибо итеративно продолжает расширяться до бесконечности. > > Возможно, мы можем обойти ссылку на себя, обойдя самих себя: > то есть повысив число измерений нашей собственной сложности, > используя нечто не имеющее ясного восприятия, определенной точки > зрения. Фактически, кроме истины и лжи мы теперь должны пользоваться > и понятием неопределенности, которая может разрешаться в истину или > ложность > позднее или не разрешиться вовсе. Некий сорт замороженного, > приостановленного > вычисления. > > Ответ учения Дзен таков - истинно то, что является истинным в > повседневной > жизни. Это вполне четкий критерий: во Вселенной, которая запутывает и > обескураживает нас, что мы еще можем сделать, кроме как быть тем, > что мы ЕСТЬ? Мы должны спросить, почему это > знание о Вселенной должно быть помещено в виде символьной системы > в наш ум? Информация, которую мы ищем, существует вокруг нас, > постоянно, складываясь в шаблоны, которые мы хотим понять и > разложить на составляющие. Чего хорошего мы найдем в таком понимании? > Ясно, что мы от рождения иммем присущую уму нужду пытаться понять > и схематизировать, но есть ли какая то иная причина для этого? > Чтобы быть, достаточно просто быть. > > 28 октября 1999 г. 16:59 DATE: !326, 06:46:54 22/11/99 USER: Тармо Пикаро MAIL: tpikaro@turkuamk.fi SUBJ: Коментарии по поводу теоремы Гёделя > >[Мораль в том, что недоказуемые утверждения есть и будут всегда. > >Это значит, что есть не только ИСТИНА и ЛОЖЬ, но и НЕОПРЕДЕЛЕННОСТЬ. > >Двузначная логика неадекватна - А.Б.] > > Именно это я и хотел сказать , только не знал как выразиться. :) > Мы привыкли пользоваться объектами , символами - и мыслить > необъектно мы просто не умеем , но тем не менее - как раз этого нам и > не хватает ! т.е. не именно неопределенности , а самого принципа/ > логики использования неопределенности. Ведь сам объект или символ > образуется из неоределенности путем увеличивания критерий к > неопределенности. Однако я не согласен с автором этого текста , > утверждающего что к истине и лжи надо итдельно брать неопределенность > - истина и ложь происходят от неопределенности. И если брать 2 > первоначальных бита информации - то надо брать не истину / ложь , а > определенность / неопределенность. А определенная определенность дает > нам истину , неопределенная определенность - ложь. :) > > И ещё лучше говорит текст об этом: > >Фактически, кроме истины и лжи мы теперь должны пользоваться > >и понятием неопределенности, которая может разрешаться в истину или > >ложность позднее или не разрешиться вовсе. Некий сорт замороженного, > >приостановленного вычисления. > > //Тармо. DATE: !326, 20:57:51 22/11/99 USER: Сергей Ковалев MAIL: kovalev@mx.ihep.su SUBJ: Мысленный эксперимент > Привет, Евгений! > > В последнем приложении "НГ-наука" к "Независимой газете", 17 ноября 1999г., > есть интересная статья Андрея Ваганова (интервью с С. Кареловым) > "ХРАНИТЕ ИНФОРМАЦИЮ В ПРАВОМ ПОЛУШАРИИ > Цифровая копия реального мира - идеальная среда для решения > нечеловеческих задач человеческими методами". > ( http://science.ng.ru/comp/1999-11-17/1_keepinfo.html ) > Скоро мысленный эксперимент почти не будет от реального отличаться. :) > В этом номере в рубрике "Стиль жизни" и моя статья > опубликована: "История физики и магия чисел". > ( http://www.ng.ru/style/1999-11-17/16_history.html ) > Тираж газеты около 47 000 . Мысли вслух в такой аудитории - это тоже > своего рода эксперимент, одновременно мысленный и реальный. :) > А иронический "Стиль жизни" обеспечивает безопасность эксперимента... > Сергей. > > > DATE: !329, 08:17:09 25/11/99 USER: Andrey Nikolaev MAIL: nikolaev@aha.ru SUBJ: новая книга Damasio > Спасибо за внимание к нашей статье (Иваницкий, Николаев "В поисках механизмов сознания"). > Хочу обратить ваше внимание на новую (1999) книгу американского нейрофизиолога Antonio Damasio "The feeling of what happens: body emotion in the making of consciousness". В книге рассматриваются нейрофизиологические предпосылки возникновения сознания. Damasio выстраивает следующую цепочку, приводящую к появлению сознания. Поддержание стабильной внутренней среды - это необходимая потребность любого живого организма. Появление в эволюции высокоорганизованной нервной системы, которая могла бы обеспечивать эту функцию, явилось первым шагом к появлению самосознания. То есть самосознание имеет досознательную биологическую основу, протосознание, которое соответствует согласованным наборам нейронных паттернов, каждое мгновение картирующих (т.е. проводящее параллельное пространственно-частотное сопоставление множества признаков) физическое состояние организма. К соответствующим структурам мозга могут относится ядра ствола, гипоталамус, инсулярная и соматосенсорная кора. Эта система соз! > дает представление о текущем состоянии организма первого порядка. Одновременно с этим в мозге образуются сенсорные карты, которые отражают объекты, - будь то объекты окружающего мира или мысленные образы. Их взаимодействие изменяет текущее состояние организма. Отсюда следует основной вывод о том, что самосознание (самоощущение) возникает когда организм сопоставляет протосознание и процесс, изменяемый объектами. В сущности, появление самосознания связано с картированием второго порядка в определенных мозговых структурах того, как изменяется протосознание. Таким образом, центральный проблема нейробиологии сознания заключается в описании того, как мозг картирует организм и объекты и, самое главное, динамике их отношений. > Андрей Николаев DATE: !330, 10:45:34 26/11/99 USER: Mikhail Dubitsky MAIL: m.dubitsky@globalone.ru SUBJ: Re: новая книга Damasio > > * Added by Andrey Nikolaev * Date: 08:17:09 > 25/11/99 > > > > Спасибо за внимание к нашей статье (Иваницкий, Николаев "В поисках > механизмов сознания"). > > Хочу обратить ваше внимание на новую (1999) книгу американского > нейрофизиолога Antonio Damasio "The feeling of what happens: body > emotion in the making of consciousness". В книге рассматриваются > нейрофизиологические предпосылки возникновения сознания. > { Damasio и выводы поскипаны} > > Таким образом, центральный проблема нейробиологии сознания заключается > в описании того, > > как мозг картирует организм и объекты и, самое главное, динамике их > отношений. > > Андрей Николаев > > Уважаемые коллеги, > Возможно я уже писал в эту конференцию, о книге Уильяма Кэлвина "Код > Мозга" (1996 !), > где излагается крайне интересная гипотеза того "как мозг картирует > организм и объекты и, > самое главное, динамике их отношений". Книга полностью доступна в > Интернете на > английском языке по адресу: http://faculty.washington.edu/wcalvin/bk9/ > Там еще много (на дом. стр. Кэлвина) интересного про мозг, сознание, > историю их возникновения; следовательно, про климат Земли и так далее. > Best Regards, > --Михаил-- DATE: !335, 15:13:48 01/12/99 USER: Тармо Пикаро MAIL: tpikaro@turkuamk.fi SUBJ: Re: Почему мозг не применяет "внутренний язык" > > Мозг находится в безвыходном положении. Он не может использовать > > семантику, то есть осмысленные символы, и вынужден делать прогноз на > > основе динамики, истории, того что было. Текущий процесс считается таким > > же, как некий хранимый в памяти похожий прежний процесс (совокупность > > сигналов от всех органов). Из прежних поведений мозг "предсказывает", то > > есть воспроизводит такое поведение, которое раньше приводило к лучшему > > результату. > Согласен. Но как вы представляете себе динамику ? > Если скажем представить себе , что мы получаем информацию в виде цифр > то будет ли динамикой их разница ? > т.е. 1-3-7-... > динамика 2-4-... > И спрашивается можно ли вообще использовать вычитание в данном случае? > > > Любую динамику можно закодировать в виде протокола осмысленных > > последовательных значений, а затем использовать этот протокол для > > "узнавания". Такое динамическое узнавание похоже на "решение" уравнений > > по таблицам. Мы можем найти синус числа из таблицы, а можем рассчитать > > его, используя волновое уравнение. > Использовать для узнавания каким методом ? > Сравнения ? если символ А равен символу Б ? если символ А больше > символа Б ? > > Фактически как сказал Е.Корниенко - мозг не может изначально > использовать символы , в чем я с ним полностью согласен. Мозг сам > создает себе символы для упрощения своей жизни. Но вот вопрос - как > он умудряется создать их ? Сначала у интеллекта нету символов , а > так же он не может пользоваться операциями 'больше' и 'меньше' так как > он ещё не имеет понятия 'спектра' или линии. Далее - он также не может > воспользоваться понятием 'равно' - например - в некоторых случаях мы > воспринимаем красный и темно красный как один цвет. В данном случае > мы можем записать это как 'красный=темно красный' - что не > соответствует истине. То есть на практике получается что у нас нету > объектов чем оперировать плюс ещё ко всему нам нечём оперировать. > Спрашивается - что за елки ? :) > > Далее у меня была ещё такая идея: > логика делится на объектную и необъектную. Объектная логика > оперирует объектами , необъектая - необъектами (назовем пока что так) > Основное отличие объектов от необъектов в том что например > в объектной логике можно записать 1+2=3 > в необъектной логике могут существовать такие необъекты как 1,2 и 3 , но > между ними нельзя записать такую же формулу , как в объектной логике - > единственное что можно сказать про 1,2 и 3 - это то что 1 не равен 2 , 2 > не равен 3 и 3 не равен 1. (В данном случае затрудняюсь сказать как > тут определяется операция 'равно') Любой необъект может разделится на 2 или > более необъектов , или же объектов. Но из объекта нельзя получить > необъект - так как объект это фактически определенный необъект. > (т.е. необъект обрамленный несколькими критериями дает объект , > примерно так же как часы (~необъект) состоят из деталей(~объект)) > какие нибуть коментарии по этой идее ? > > //Тармо. DATE: !337, 17:32:59 02/12/99 USER: Hb MAIL: den44@mail.ru SUBJ: Приглашаем автора и всех желающих обменяться(++) > мнениями по поводу пределов познания к нам > в гости - http://webboard.land.ru/wb.htm?board=903