История идей в исследованиях ИИ

1656680301 istoriya idej v issledovaniyah ii

Елена Нисиоти

hFNoixgvqUNco6rkubb8TFFO7s13ykz0v7F1
Мечтают ли андроиды об электроовцах? Давайте вернемся к тому времени, когда вопросы искусственного интеллекта были более простыми (но все еще затруднились ответить).

Искусственный интеллект быстро развивается. Атмосфера вокруг. Факты начинают звучать как научно-фантастические фильмы, а научно-фантастические фильмы – как версия реальности (с лучшей графикой). Вполне возможно, что искусственный интеллект наконец-то достиг того уровня зрелости, к которому стремился десятилетиями, и ему упорно отрицали, что привело к тому, что часть его сообщества и весь мир начали подозревать его осуществимость.

Франкенштейн может содержать параллели, актуальные для настоящего. Готический роман Мэри Шелли содержит дискуссию о последствиях создания и внедрения в общество искусственного существа. Существо сбивает с толку своей бесчеловечной жестокостью и человеческими проявлениями слабости, потребности в обществе и экзистенциального кризиса.

Мы можем сказать, что мы должны сосредоточиться на будущем и последствиях наших открытий. Но как можно сосредоточиться на хаосе, созданном введением армии Существ в такую ​​сложную систему, как современное общество? Можно сосредоточиться на достижениях, историях успеха, благодаря которым эти идеи звучат правдивыми. Но как можно ex post Различать правильную интуицию и удачу?

91AiTJ6BkYpTH8wwwrJmVpQMaGSVvB75gxwk

Нужны сдержанность и мудрость, чтобы на время отбросить ветви своего труда и оценить прочность ее корней. Цветущее дерево может отвлекать внимание.

Независимо от того, ищете ли вы правила логического мышления у древнегреческих философов, формулирование соображений у арабских математиков или силу математических знаний у интеллектуалов 19 века, становится понятным одно тревожное представление: вопросы глубже сети, которые вы можете создать (даже с учетом закона) кладка).

«Я считаю, что то, кем мы станем, зависит от того, чему учат наши родители в странные моменты, когда они не пытаются нас научить. Мы сформированы маленькими кусочками мудрости».

Умберто Эко

Остальные обсуждения возникнут из истории ИИ. Не история достижений, а история вопросов, аргументов и убеждений некоторых важных личностей. Большинство событий разворачивается вокруг 60-х годов, эпохи искусственного интеллекта приобрели свое официальное определение, свою цель, свое научное сообщество и его противников.

Могут ли машины думать?

В 1950 году Алан Тюринг пытается ответить на этот умышленно упрощенный вопрос в своей основополагающей статье «Вычислительная техника и интеллект». Признавая его неоднозначность и ограничения, которые он накладывает на понимание ИИ, он продолжает, формулируя мыслительный эксперимент, также известный как тест Тьюринга:

Игрок A – мужчина, игрок B – женщина, игрок C – любого пола. C выполняет роль допросника и не может видеть ни одного игрока, но может общаться с ними с помощью безличных заметок. Задавая вопросы А и Б, С пытается определить, кто из них мужчина, а кто женщина. Роль А состоит в том, чтобы заставить допросника принять неправильное решение, тогда как Б пытается помочь допросителю принять правильное решение.

Тогда переформулированный вопрос выглядит следующим образом:

Что произойдет, когда роль А в этой игре примет машина? Будет ли допросник принимать неправильные решения так часто, как это делает, когда игра ведется между двумя людьми?

Подход Тюринга, кажется, следует доктрине теста на утку: если она выглядит как утка, плавает как утка и крякает как утка, то, вероятно, это утка.

Его отношение к «человеческим» аспектам интеллекта, таким как сознание, заключается в том, что вы не можете винить кого-либо (или что-либо) в отсутствии характеристики, которую вам еще предстоит определить. Таким образом, сознание не имеет значения в наших поисках ИИ.

Теоремы о неполноте Геделя были препятствием в попытке говорить о ИИ. Согласно им математическая логика не может быть одновременно полной и последовательной, поэтому ожидается, что машины, оснащенные математической логикой для обучения, как в случае ИИ, не смогут усвоить некоторые истины. Ответ Тюринга на это достаточно обезоруживающий: откуда вы знаете, что человеческий интеллект тоже не имеет своих ограничений?

Статья Тьюринга богата как аргументами, так и четкой диалектической структурой, однако ограничена в спекуляциях относительно технологий, которые еще предстоит открыть.

Шаги к искусственному интеллекту

Марвин Минский был одним из родителей ИИ как области исследований. В пыльном альбоме семейных фотографий искусственного интеллекта Минский был бы этим стариком, который приносит определенное беспокойство на семейный ужин: «Старый дядя Минский. Он был неотразимо своеобразен и всегда имел что-то интересное сказать».

Минский был одним из организаторов Дартмутской конференции в 1956 году, где искусственный интеллект впервые был определен как термин и область. В большинстве своем он запомнился своей твердой верой в то, что искусственный интеллект является осуществимым, и его обесцениванием, пытаясь применить его неправильными средствами.

Давайте посмотрим, что сказал Минский в 1961 году, когда его спросили о прогрессе ИИ.

Следует ли спрашивать, что такое «подлинно» интеллект? Мое собственное мнение состоит в том, что это более эстетический вопрос или вопрос чувства достоинства, чем технический! Мне кажется, что «интеллект» означает немного больше, чем комплекс действий, которые мы уважаем, но не понимаем. Так обычно бывает и с вопросом глубины в математике. Как только доказательство теоремы действительно понятно, ее содержание кажется тривиальным.

Признавая присущие трудности в определении искусственного интеллекта и, таким образом, в его разработке, Минские начинает с того, что устанавливает основные его основы. По его словам, это поиск, распознавание образов, обучение, планирование и индукция.

Если конечной целью программы является поиск и нахождение собственных решений, то распознавание шаблонов может помочь ей распознать соответствующие инструменты, обучение может помочь усовершенствовать ее через опыт, а планирование может привести к более эффективному исследованию. Относительно возможности создать машину с индуктивными способностями и, таким образом, размышлять, Минский должен сказать:

Теперь [according to Gödel’s incompleteness theorem], не может быть системы для индуктивного заключения, которая хорошо работала бы во всех возможных вселенных. Но учитывая вселенную [our world]или ансамбль вселенных, и критерий успеха, эта (эпистемологическая) проблема для машин становится технической, а не философской.

Остальное текст содержит повторяющееся желание объяснить, что поиск ИИ должен осуществляться через сложные иерархические архитектуры. По этой причине он подвергает сомнению персептронный подход, поскольку он не подойдет для умеренно сложных задач. И, честно говоря, мы не можем ожидать, что реальность будет упрощена.

На Минского можно возложить ответственность за препятствование исследованию перцептронов, что, по всей вероятности, задержало расцвет глубокого обучения. Осознание того, что, даже используя простые строительные блоки, можно решить сложные проблемы, погрузившись в глубокие архитектуры, похоже, избежало его, тем не менее, гениального проникновения.

Тем не менее, его замечания можно рассматривать как окончательно конструктивную критику, поскольку они помогли сообществу изучить слабые стороны оригинальных подходов. Кроме того, глубокое обучение может быть лучшим, что мы имеем на сегодняшний день (и какие замечательные программы), но не следует безоговорочно рассматривать его как Святой Грааль ИИ.

Ум, мозг и программы

В 1980 году Джон Серл разозлился. Хотя он, вероятно, разозлился раньше, но именно в этот момент он решил обнародовать свое несогласие сильный ИИ. Действительно, даже название звучит саркастически. Я чувствую, будто Серл хватает меня за шиворот и, энергично махая пальцем, говорит: «Позволь мне помочь тебе сделать некоторые принципиальные отличия, молодой парень».

«Создается впечатление, что люди из искусственного интеллекта, пишущие подобные вещи, думают, что им это сойдет с рук, потому что они на самом деле не воспринимают это серьезно, и они не думают, что кто-то другой также будет воспринимать это. Я предлагаю, по крайней мере, на мгновение воспринять это серьезно».

Серл атакует исключительно понятие сильного искусственного интеллекта, которое он определяет как способность компьютера практиковать любое поведение человека. Он переводит это на способность машины демонстрировать сознание, опровергаемое по аналогии. Его знаменитый воображаемый эксперимент, китайская комната, выглядит так:

Вы – человек, говорящий на одном языке, замкнутый в комнате со следующими вещами: большая партия китайской письменности (называемая сценарием), другая большая партия китайской письменности (называемая история) и набор правил английского языка, которые указывают вам, как согласовывать китайский символ второй партии к первой (называется программой). Затем вы получаете другую партию письменных текстов на китайском языке (на этот раз они называются вопросами) и другой набор инструкций на английском языке с правилами, соответствующими двум другим группам вопросов. Поздравляем, вы только что выучили китайский!

Это эксперимент «Китайская комната», представленный Серлом в 1980 году. Творческий эксперимент не является экспериментом сам по себе, поскольку его целью является не проведение, а исследование потенциальных последствий идеи. Самым старым и известным является, вероятно, эксперимент Галилея с Пизанской башней (вы также думали, что Галилей на самом деле сбрасывал яблоки с башни?).

Серл считает, что тот факт, что вы можете дать китайские ответы, принимая китайские вопросы, не означает, что вы понять Китайский, если эта способность была создана по правилам другого языка. Как следствие, машину, издающую ожидаемый выход после того, как ей был задан соответствующий алгоритм, не следует считать «мыслящей» сущностью.

2ZkVMQSjb0B7CrPycMebnNIrQSMRh20hqw-9

Что Серл не отрицает, так это способность программы мыслить в терминах определенного функционального рассуждения. Он обвиняет нынешних исследователей искусственного интеллекта в бихевиоризме и операционализме, поскольку они пытаются отождествить программу с умом (правда), оставляя в стороне важность мозга.

Согласно ему, сознание происходит только от биологических операций, и поскольку программа полностью независима от своей реализации (поскольку она может работать на любом оборудовании), она не может проявлять сознание.

Читая оригинальный текст, возникает ощущение, что он атакует незрелое сообщество компьютерных ученых, не потрудившееся достичь консенсуса относительно того, что такое интеллект, но пытается его симулировать, руководствуясь телеологическими подходами и спекуляциями.

Ответ Минского на Серла и философские подходы в целом настолько нигилистические, насколько это возможно: «они неправильно понимают, и их следует игнорировать».

Слоны не играют в шахматы.

И вы не должны заставлять их чувствовать себя по этому поводу. Эта статья, написанная Родни А. Бруксом в 1990 году, является попыткой a Nouvelle AI евангелиста убедить, используя как аргументы, так и свой роботизированный парк, что классический подход к ИИ должен оставить определенное пространство для него.

Чтобы получить ощущение той эпохи, ИИ переживал свою вторую зиму. Финансирование было сокращено, поскольку компании и правительства поняли, что община поставила слишком высокие ожидания.

Итак, время для самоанализа. Если что-то принципиально не удается, есть два пути к этому: либо этого невозможно достичь, либо ваш подход ошибочен.

Брукс предположил, что стагнация искусственного интеллекта объясняется его догмой многофункциональных представлений. The гипотеза системы символов это давний взгляд на то, как работает интеллект. Согласно ей мир включает такие сущности, как люди, машины и космическая любовь, поэтому естественно сопоставлять их с символами и кормить ими машины. Если эта гипотеза верна, то вы предоставили машине всю необходимую информацию, чтобы она «придумала» интеллект.

Хотя это предположение не кажется проблематичным, оно имеет некоторые далеко идущие последствия, которые могут объяснить плохую производительность ИИ:

  • Символьная система не адекватна описанию мира. Согласно проблеме кадров, логической ошибкой является предположение чего-либо, что не сформулировано явно. К этому моменту Брукс волшебно предлагает: почему бы не взять мир за свою модель?
  • Интеллект не может возникнуть из простых расчетов. Широкое использование эвристиков, необходимых для обучения разумным алгоритмам, противоречит нашей попытке создать знания. (Ваш поиск по сетке оскорбительный для человеческого интеллекта.)
  • Одержимость искусственного интеллекта обеспечением всеобщности изученной модели привела к явлению, которое Брукс называет головоломкой: чрезмерные усилия, приложенные для доказательства того, что алгоритм работает в непонятных случаях. Это, безусловно, привлекательная способность, но, думается, она не является фундаментальным следствием знания, и наш мир достаточно последователен.

Контрпредложение Брука заключается в том гипотеза физического обоснования. То есть позволить искусственному интеллекту непосредственно взаимодействовать с миром и использовать его как свое собственное представление. Это, безусловно, изменяет стандартную практику искусственного интеллекта: начиная от обучения, требующей огромных вычислительных ресурсов, руководства экспертов и никогда не удовлетворенной потребности в учебных данных, Брук предлагает оснастить физическим объектам дешевым аппаратным обеспечением и выпустить его в свет. Но недооценивает ли это проблему?

Брукс видит, что интеллект развивается благодаря коллективному поведению, а не сложным частям. Пожалуй, глубочайшее наблюдение его экспериментов касается того, как «Целенаправленное поведение возникает в результате взаимодействия более простых нецелевых форм поведения». Не обязательно существовать заранее определенный шаблон координации, поскольку умная машина должна разрабатывать собственные стратегии для оптимального взаимодействия с миром.

Аргумент Брука по поводу эволюции убеждает нас в важности гипотезы физической основы: люди являются наиболее распространенным и ближайшим примером, который мы имеем к интеллекту. Таким образом, в нашей попытке воспроизвести эту характеристику, не естественно ли наблюдать за эволюцией, медленным, адаптивным процессом, постепенно приведшим к формированию человеческой цивилизации? Теперь, если учесть время, которое понадобилось нам для развития таких навыков, как взаимодействие, воспроизведение и выживание, в отличие от наших еще молодых способностей пользоваться языком или игрой в шахматы, то можно сделать вывод, что это самые трудные навыки для развития. Итак, почему бы не сосредоточиться на этом?

Хотя Брук в восторге от практичности своего подхода, он признает его теоретические ограничения, которые можно объяснить тем фактом, что нам еще предстоит выработать полное понимание динамики взаимодействующих популяций. Снова очевидно пренебрежение инженера к философским возражениям:

«По крайней мере, если наша стратегия не убедит тихих философов, наш инженерный подход радикально изменит мир, в котором мы живем».

AI демонстрирует прогресс

Несмотря на то, что он плавает в море вопросов, ИИ демонстрирует то, что мы не можем возразить: прогресс. Тем не менее, избавление текущих приложений от влияния технологических достижений и эвристических преимуществ для получения точного представления о качестве текущих исследований является изнурительной задачей.

Станет ли глубокая учеба достойным инструментом для удовлетворения наших постоянно требовательных критериев интеллекта? Или это еще один межледниковый период перед тем, как ИИ снова достигнет зимы?

Более того, беспокойство и вопросы переместились из чисто философии на социальную, поскольку последствия искусственного интеллекта в повседневной жизни становятся более очевидными и актуальными, чем потребность в понимании сознания, Бога и интеллекта. Однако ответить на этот вопрос может быть еще сложнее, и он побуждает нас копнуть еще глубже.

Когда Витгенштейн писал «Трактакт», он столкнулся с опасностью фундаментальной ошибки: его доводы стали жертвой доктрины его труда. То есть, если кто признал его доктрину истинной, его аргументы были нелогичными, а значит, его доктрина должна быть ошибочной. Но Витгенштейн думал иначе:

«Мои предложения объяснимы таким образом: тот, кто понимает меня, наконец признает их бессмысленными, когда он вылез сквозь них, на них, через них».

Чтобы понять правду, стоящую за сложной идеей, нам нужно развиваться. Мы должны твердо стоять на нашем предыдущем шаге и готовы отказаться от него. Не каждый шаг должен быть верным, но его нужно понимать. Когда позже столкнулся с этим аргументом, Витгенштейн сказал, что ему не нужна стремянка, поскольку он способен напрямую приблизиться к истине.

Может, нам еще понадобится.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *