Ты сам написал то что и я, но более хрубым языком, а более строгим - у них нет соответствующих паттернов, и взять они их неоткуда не могут, только нарандомить путем разбиения существующих и рекомбинации составляющих.
Нет, Монц, ты пишешь не строгим языком.
Ты подменяешь понятия и сыпешь терминологией, которая не имеет отношения к разговору.
Это не "строгий язык" - это непонимание того, как оно работает.
конечное статистическое распределение действий по хэшам, математически ограниченное.
Вот это утверждение - вообще псевдонаучная хуйня. По каким-таким хэшам оно распределяется? Как оно ограничено математически, когда это очень наглядно - не сходящийся ряд? Типа общей математической решенностью игры? Которая частью формулы не является и тоже не имеет никакого отношения к разговору? Ибо если бы это и было то "ограничение", то мы бы разговаривали в контексте того, что нейронка решила игру, а не то, что она играет местами хуже человека.
Можешь меня переубедить.
Без брута она ограничена заложенными паттернами и полученным при самообучении оттисками
Ты разделяешь вещи, которые разделять не положено и делаешь утверждения, которые противоречат действительности.
Если ты пытаешься переопределить "брут" как что-то своё, уличное, то это работает не так.
Если ты имеешь в виду "брут" как слезание с "знаний" сети и переход на "перебор" - то это не тоже не так работает.
Разговор из серии "давайте поговорим о расизме. Для начала, давайте переопределим термин расизм".
В го так не работает, про игроки уверено обыгрывают любых нубов, у нейронки так не получилось, хотя компьютер мягко говоря неслабый использовался.
А кто говорил, что в го так сработает? Утверждение было чёткое: "особенно это заметно в менее стратегических играх". Го - это не "менее стратегическая игра".
И, доходя до маразма, нет это в и Го "работает", просто не на уровне поражения. Если профессионал столкнётся с абсолютно тупым ходом, он запросто может на него ответить далеко не самым оптимальным способом. Речь была конкретно про "заметность" потому, что в каких-нибудь файтингах профессионал может встрать раунд нубу, так как одной подобной ошибки для этого может хватить. В Го, одной ошибки будет недостаточно, чтобы профессионал всрал нубу.
"Сила компьютера" не имеет роли в контексте работающей нейросети - этому утверждению в разговоре места нет и причина, по которой ты его делаешь - это твоё неправильное разделение "нейронки" и "брута" с попыткой переопределить последнее.
Любоё
новое действие сети
всегда совершается случайным образом. То, что ты называешь "брут" - это то, как нейросети учатся.
То что ты называешь "заложенные паттернами", "оттисками" и т.д. - это уровень абстракции, на котором выбираются действия.
То есть, да, твоё конечное заключение корректно, чем выше уровень абстракции, тем выше производительность и скорость обучения сети, но тем выше и её деривативность, тем ниже её гибкость и креативность - вероятность того, что она "научится" чему-то новому, и тем больше будут "дыры" в её познаниях. И, в обратную сторону, чем ниже уровень абстракции, тем "свободнее" становится модель, но и требования по производительности растут экспоненциально, быстро выходя за пределы реалистичного.
Только это не твоё изначальное утверждение. И постоянное упоминание "брута" - самый наглядный тому пример.
Нейронка, играющая в Го не брутфорсит ходы. Она, при желании, может, и скорее всего есть вариации которые это делают, но это противоречит духу эксперимента. Потому и "сила компьютера" роли играть не будет.
Производительность важна на этапе обучения нейронки. На этапе использования - это условно лёгкий (для своей сложности) алгоритм, который для настолько примитивных целей можно легко запустить на каком-нибудь Хромбуке.
Пример - возьми любой алгоритм, который обучался на абсолютно неадекватном количестве информации. Большие языковые модели, генераторы изображений - подобная херня. Их абсолютно невозможно тренировать с нуля локально - нужны производительные мощи не бытового уровня. Но использовать это на своём всратом ноутбуке вполне-таки можно.
Грубо говоря, то как пытаешь разделять нейронку и "брут" ты - это сценарий, где столкнувшись с неизвестной переменной, нейронка перестаёт играть и начинает переобучаться, симулируя процесс размышления человека.
В таком сценарии твой подход был бы поверхностно верным - более мощная машина добилась бы большего, чем менее мощная. Это как правило так не работает, потому что даже самое быстрое обучение занимает очень много времени. Но в будущем вполне может быть достижимо.
Но даже так, никакого ограничения на основе "заложенных" знаний тут нет.
Это всегда вопрос того, когда нейронка дойдёт до необходимости залатать ту или иную дыру. Такую необходимость намного проще создать используя живые примеры, но фундаментальной
математической необходимости в этом нет.
И современные алгоритмы абсолютно точно меняют уровни абстракции (т.е. разбивают паттерны на примитивы, равно как и собирают новые, более сложные поттерны), так как иначе ты не выведешь модель из эволюционных тупиков.
PS Нагрубив, а потому подумав, я предположу, что ты рассуждаешь про нейронку в контексте того, что она завершила обучение и её выпустили в поле. В таком сценарии да, реалистично она ничему не научится и на месте ничего не решит. Обучение дающее ощутимый результат в контексте тысяч/миллионов итераций, а не десятков-сотен. Но в таком контексте ни о каком обучении на основе живых людей речи быть не может.
Я же говоря про нейронку подразумеваю её как явление, которое постоянно находится в режиме самообучения и отдельные игры - это просто один из шагов направленных на расширение подобных сценариев. И математически, она ограничена только "решаемостью" задачи, с которой она работает. Есть куча задач, которые математической решаемости не имеют.