Я немного вольно использовал терминологию с целью сократить текст. Вы совершенно правы, обратные связи - неотъемлемая часть нейронной сети в процессе обучения. Каждый следующий шаг делается на основе анализа результатов предыдущего. Это локальные петли обратных связей, нужные для решения поставленной задачи. Я имел в виду глобальную петлю - для самостоятельной постановки новых задач. Когда задача чётко очерчена, можно в какой-то момент признать, что она решена, зафиксировать состояние нейросети и применять её в готовом виде. Задача вести беседу не строго определена. То, что описывает Лемойн похоже на то, что процесс обучения ЛяМДА не останавливается. Он постоянно подкачивает новые данные, прогоняет их через свои распознающие цепи, осваивает их так, чтобы можно было использовать в беседе. Что значит, что ИИ "прочитал книгу"? Книга ввиде файла лежит в его прямом доступе. Но в таком виде она для него - "внешние данные". Если пропустить книгу через когнитивные цепи, она поднастроит его внутренние связи, преобразуется в "активное знание". Видимо, для таких экспериментов Гугл идёт на то, чтобы тратить ресурсы на обучение, которое - "дорогой процесс". А при наличии глобальных обратных связей "участие специалистов" не требуется. И, наверное, то, что сеть "в какое-то время прийдёт в полную негодность" - не является неразрешимой проблемой. Наверное, можно найти подход, этого избегающий. А, возможно, данная программа ещё просто не дошла до этой стадии.
no subject
Date: Friday, 24 June 2022 02:22 pm (UTC)Вы совершенно правы, обратные связи - неотъемлемая часть нейронной сети в процессе обучения. Каждый следующий шаг делается на основе анализа результатов предыдущего. Это локальные петли обратных связей, нужные для решения поставленной задачи.
Я имел в виду глобальную петлю - для самостоятельной постановки новых задач.
Когда задача чётко очерчена, можно в какой-то момент признать, что она решена, зафиксировать состояние нейросети и применять её в готовом виде.
Задача вести беседу не строго определена.
То, что описывает Лемойн похоже на то, что процесс обучения ЛяМДА не останавливается. Он постоянно подкачивает новые данные, прогоняет их через свои распознающие цепи, осваивает их так, чтобы можно было использовать в беседе. Что значит, что ИИ "прочитал книгу"? Книга ввиде файла лежит в его прямом доступе. Но в таком виде она для него - "внешние данные". Если пропустить книгу через когнитивные цепи, она поднастроит его внутренние связи, преобразуется в "активное знание".
Видимо, для таких экспериментов Гугл идёт на то, чтобы тратить ресурсы на обучение, которое - "дорогой процесс". А при наличии глобальных обратных связей "участие специалистов" не требуется.
И, наверное, то, что сеть "в какое-то время прийдёт в полную негодность" - не является неразрешимой проблемой. Наверное, можно найти подход, этого избегающий. А, возможно, данная программа ещё просто не дошла до этой стадии.