Для отображения списка тем, войдите на форум или зарегистрируйтесь.
Сейчас на форуме 12 посетителей
Google
Неизвестный Бобер
Неизвестный Лось
Неизвестный Павлин
Неизвестный Крокодил
Неизвестный Суслик
Неизвестный Страус
Неизвестный Пингвин
Неизвестный Слон
Неизвестный Носорог
Неизвестный Фазан
Неизвестный Питон

Автор Тема: Свободное общение (2023)  (Прочитано 6200 раз)

Скрывать неподписанных -

0 Пользователей и 1 Гость просматривают эту тему.

Бегемот| Зеленый утк

2023 Нояб.. 13, 20:36 [#18480]
Ну дак вся эта квантовая тема - именно что теория. Мы в принципе ограничены своими же теориями. Кажется, что мы никогда ничего не будем знать об окружающем мире точно. Любая физическая концепция лишь некоторый взгляд на действительность. Саму действительность нам, пожалуй, не постичь. :DogCringe
 

Бегемот| Зеленый утк

2023 Нояб.. 13, 20:37 [#18481]
что некоторые тактики от него вроде как были переняты игроками.
Были.
И некоторые фишки от АльфаЗеро вроде как перешли в шахматы.
Но в шахматах, вроде, не то чтобы так никто не играл, просто никто не знал что это НАСТОЛЬКО эффективно. Даже топ гроссы.
 

epsilon| Пони

2023 Нояб.. 13, 20:43 [#18482]
Основная проблема "эволюционирующих" нейронок, равно как и причина, почему их нужно тренировать на примерах, это то, что очень тяжело написать грамотный алгоритм выведения отдельной особи из эволюционного тупика.
Это работает и в обратную сторону - за счёт "примеров", нейронка начинает работать на более высоком уровне абстракции и начинает гиперфокусироваться на них, в то время, как латать дыры в её познаниях было бы полезнее. Но как она может знать, что она чего-то не знает?

А когда подобные проблемы пытаются решить на дилетантском уровне, всё начинает упираться в нереалистичное количество необходимых симуляций.


Бегемот| Зеленый утк

2023 Нояб.. 13, 20:46 [#18483]
Вроде как, АльфаЗеро вообще обучалась ИСКЛЮЧИТЕЛЬНО играя сама с собой и пришла через короткое время к современным дебютам. Типо сначала она вообще рандомные ходы делает просто.  :wtf_nursultan
Есть вью с разрабом, он там про это говорит (с 5:31 примерно):
 

epsilon| Пони

2023 Нояб.. 13, 20:50 [#18484]
Вроде как, АльфаЗеро вообще обучалась ИСКЛЮЧИТЕЛЬНО играя сама с собой и пришла через короткое время к современным дебютам. Типо сначала она вообще рандомные ходы делает просто.  :wtf_nursultan
Есть вью с разрабом, он там про это говорит (с 5:31 примерно):

Чем проще задача, тем реалистичнее, что нейронка может научиться самостоятельно.
Это, на полном серьёзе, вопрос производительности. Чем она выше, тем сложнее может быть подобная задача.

Монс| RETURN TO MONSE

2023 Нояб.. 13, 21:37 [#18485]
А кнутом и пряником всегда может быть просто победа и поражение - это самая база.
Да ладна  :dieto

Епсь, то что ты пытаешься описать уже и есть брут, брут можно добавить в нейронку и нейронку в брут, чем промышляют, но эффективность брута падает со сложностью задачи (в случае с Го это критически заметно). Для начала надо рассмотреть мат. нейронку.

Нет, это фундаментально неправильно.
Подобные сети проигрывают неожиданным подходам, так как у них зияющие дыры в информации, которой они обладают касательно подобного уровня игры.
Ты сам написал то что и я, но более хрубым языком, а более строгим - у них нет соответствующих паттернов, и взять они их неоткуда не могут, только нарандомить путем разбиения существующих и рекомбинации составляющих.

Если профессионала кинуть против упоротых нубов, даже он может совершать ошибки против дуболобных тактик, к которым он просто не привык. Особенно это заметно в менее стратегических играх, например в файтингах.
Разница между человеком и нейронкой тут в том, что человек может быстро адаптироваться, а нейронка - нет. Вернее может, но это статистически нереалистично.
В го так не работает, про игроки уверено обыгрывают любых нубов, у нейронки так не получилось, хотя компьютер мягко говоря неслабый использовался. "Умение адаптироваться" в данном случае это ничто иное как опыт про игров который они получили пока сами учились играть, то есть против всех уровней игры включая более слабых (к текущему уровню) оппонентов. Но нейронке они этот опыт не передали а она его сама не родила.

Шанс того, что нейронка наткнется на подобные "тактики" при игре с самой собой тоже не нулевые и тоже нереалистичные. Потому и учат "на чём-то".
Но это не значит, что нейронке нужно "показать", что делать с подобными тактиками. Ей нужно показать, что эти тактики есть и дальше отпустить практиковаться - решение на них найдет она сама.
В том то и дело что нулевые (если не учитывать случайные совпадения с оттисками), если мы говорим про чистую нейросеть без генераторов. Играя сама с собой, то есть вычисляя конечно решение, она на эти тактики не наткнется. Без брута она ограничена заложенными паттернами и полученным при самообучении оттисками - результат конечное статистическое распределение действий по хэшам, математически ограниченное. Хочешь снять ограничение? Начинай перебирать, далее разбивай паттерны и снова, и так вплоть до бинарных а это уже наш друг - голый брутфорс. Разница в том что с нейронкой брутфорсить заметно эффективней, или можно не опускаться до голого остановившись чуть выше по иерархии, но тогда останется шанс на дырку где нейронку обыграют. А голый брут - всех победит.

И да, оттиски могут выглядеть как что-то совершенно новое для нас, но нейронка их не придумала, это просто результат комбинации паттернов. То есть они конечны и ограничены изначальным набором данных. Но я незнаю что за алгоритм использовался в конкретных примерах, речь про чистое нейро.

В общем чтобы не размазывать ведро воды по футбольному полю, для того чтобы комп эффективно обыгрывал гошников на всех уровнях его или надо учить на всех этих же уровнях или дробить паттерны, чем меньше паттерн тем больше брута. И сейчас мощности для такого брута не хватает критически, а нейронка без него упирается в конечное решение не способное покрыть все вариации, хочешь превосходства над людьми - набивай людьми иначе больше брута богу брута!
« Последнее редактирование: 2023 Нояб.. 13, 21:40 от Thörbjørn »
 

Монс| RETURN TO MONSE

2023 Нояб.. 13, 21:45 [#18486]
Ну дак вся эта квантовая тема - именно что теория. Мы в принципе ограничены своими же теориями. Кажется, что мы никогда ничего не будем знать об окружающем мире точно. Любая физическая концепция лишь некоторый взгляд на действительность. Саму действительность нам, пожалуй, не постичь. :DogCringe
Какая-то хпилосопия, я о конкретных вещах: либо за квантовыми процессами стоит детерминированный механизм и мы гипотетически можем получить теорию описывающую его поведение, либо это ограниченное внепричинное явление, тогда его невозможно предсказать.

 :dushnila

Монс| RETURN TO MONSE

2023 Нояб.. 13, 22:20 [#18487]
Играя сама с собой, то есть вычисляя конечно решение, она на эти тактики не наткнется. Без брута она ограничена заложенными паттернами и полученным при самообучении оттисками - результат конечное статистическое распределение действий по хэшам, математически ограниченное.
Щас подумал, честно говоря не уверен что ъ-нейросеть вообще может играть сама с собой без генераторов и возможно что любое самообучение это обучение на бруте.

:PepeThinking
 

epsilon| Пони

2023 Нояб.. 13, 22:33 [#18488]
Ты сам написал то что и я, но более хрубым языком, а более строгим - у них нет соответствующих паттернов, и взять они их неоткуда не могут, только нарандомить путем разбиения существующих и рекомбинации составляющих.
Нет, Монц, ты пишешь не строгим языком.
Ты подменяешь понятия и сыпешь терминологией, которая не имеет отношения к разговору.
Это не "строгий язык" - это непонимание того, как оно работает.

конечное статистическое распределение действий по хэшам, математически ограниченное.
Вот это утверждение - вообще псевдонаучная хуйня. По каким-таким хэшам оно распределяется? Как оно ограничено математически, когда это очень наглядно - не сходящийся ряд? Типа общей математической решенностью игры? Которая частью формулы не является и тоже не имеет никакого отношения к разговору? Ибо если бы это и было то "ограничение", то мы бы разговаривали в контексте того, что нейронка решила игру, а не то, что она играет местами хуже человека.
Можешь меня переубедить.

Без брута она ограничена заложенными паттернами и полученным при самообучении оттисками
Ты разделяешь вещи, которые разделять не положено и делаешь утверждения, которые противоречат действительности.
Если ты пытаешься переопределить "брут" как что-то своё, уличное, то это работает не так.
Если ты имеешь в виду "брут" как слезание с "знаний" сети и переход на "перебор" - то это не тоже не так работает.

Разговор из серии "давайте поговорим о расизме. Для начала, давайте переопределим термин расизм".
В го так не работает, про игроки уверено обыгрывают любых нубов, у нейронки так не получилось, хотя компьютер мягко говоря неслабый использовался.
А кто говорил, что в го так сработает? Утверждение было чёткое: "особенно это заметно в менее стратегических играх". Го - это не "менее стратегическая игра".
И, доходя до маразма, нет это в и Го "работает", просто не на уровне поражения. Если профессионал столкнётся с абсолютно тупым ходом, он запросто может на него ответить далеко не самым оптимальным способом. Речь была конкретно про "заметность" потому, что в каких-нибудь файтингах профессионал может встрать раунд нубу, так как одной подобной ошибки для этого может хватить. В Го, одной ошибки будет недостаточно, чтобы профессионал всрал нубу.
"Сила компьютера" не имеет роли в контексте работающей нейросети - этому утверждению в разговоре места нет и причина, по которой ты его делаешь - это твоё неправильное разделение "нейронки" и "брута" с попыткой переопределить последнее.

Любоё новое действие сети всегда совершается случайным образом. То, что ты называешь "брут" - это то, как нейросети учатся.
То что ты называешь "заложенные паттернами", "оттисками" и т.д. - это уровень абстракции, на котором выбираются действия.
То есть, да, твоё конечное заключение корректно, чем выше уровень абстракции, тем выше производительность и скорость обучения сети, но тем выше и её деривативность, тем ниже её гибкость и креативность - вероятность того, что она "научится" чему-то новому, и тем больше будут "дыры" в её познаниях. И, в обратную сторону, чем ниже уровень абстракции, тем "свободнее" становится модель, но и требования по производительности растут экспоненциально, быстро выходя за пределы реалистичного.
Только это не твоё изначальное утверждение. И постоянное упоминание "брута" - самый наглядный тому пример.
Нейронка, играющая в Го не брутфорсит ходы. Она, при желании, может, и скорее всего есть вариации которые это делают, но это противоречит духу эксперимента. Потому и "сила компьютера" роли играть не будет.
Производительность важна на этапе обучения нейронки. На этапе использования - это условно лёгкий (для своей сложности) алгоритм, который для настолько примитивных целей можно легко запустить на каком-нибудь Хромбуке.
Пример - возьми любой алгоритм, который обучался на абсолютно неадекватном количестве информации. Большие языковые модели, генераторы изображений - подобная херня. Их абсолютно невозможно тренировать с нуля локально - нужны производительные мощи не бытового уровня. Но использовать это на своём всратом ноутбуке вполне-таки можно.

Грубо говоря, то как пытаешь разделять нейронку и "брут" ты - это сценарий, где столкнувшись с неизвестной переменной, нейронка перестаёт играть и начинает переобучаться, симулируя процесс размышления человека.
В таком сценарии твой подход был бы поверхностно верным - более мощная машина добилась бы большего, чем менее мощная. Это как правило так не работает, потому что даже самое быстрое обучение занимает очень много времени. Но в будущем вполне может быть достижимо.
Но даже так, никакого ограничения на основе "заложенных" знаний тут нет.
Это всегда вопрос того, когда нейронка дойдёт до необходимости залатать ту или иную дыру. Такую необходимость намного проще создать используя живые примеры, но фундаментальной математической необходимости в этом нет.
И современные алгоритмы абсолютно точно меняют уровни абстракции (т.е. разбивают паттерны на примитивы, равно как и собирают новые, более сложные поттерны), так как иначе ты не выведешь модель из эволюционных тупиков.

PS Нагрубив, а потому подумав, я предположу, что ты рассуждаешь про нейронку в контексте того, что она завершила обучение и её выпустили в поле. В таком сценарии да, реалистично она ничему не научится и на месте ничего не решит. Обучение дающее ощутимый результат в контексте тысяч/миллионов итераций, а не десятков-сотен. Но в таком контексте ни о каком обучении на основе живых людей речи быть не может.
Я же говоря про нейронку подразумеваю её как явление, которое постоянно находится в режиме самообучения и отдельные игры - это просто один из шагов направленных на расширение подобных сценариев. И математически, она ограничена только "решаемостью" задачи, с которой она работает. Есть куча задач, которые математической решаемости не имеют.

 

Rindo| It doesn't matter

2023 Нояб.. 13, 22:35 [#18489]
почему хуй в каждом обсуждении такой грубиян? :pepesady

epsilon| Пони

2023 Нояб.. 13, 22:40 [#18490]
возможно что любое самообучение это обучение на бруте.
Не возможно, а так и есть  :PepeFacts
 

Монс| RETURN TO MONSE

2023 Нояб.. 13, 22:49 [#18491]
Я даже не буду на эту кучу текста отвечать честно говоря, кажется Эпс спорит просто ради спора, видно что не понимает как минимум что я ему пишу (например что в мат. нейронке нет генераторов, она конечно и статична), и я не уверен что понимает что он сам пишет.

:Shunsuimmm

Главное знать что я делал поиск по изображениям и обратную генерацию, а Эпс - нет  :PepeNose

Off-Topic: показать
А вы что подумали?  :bukashka


Кук, можешь принять эстафету  :yesbro

Монс| RETURN TO MONSE

2023 Нояб.. 13, 22:52 [#18492]
Кстати, снова первый пост на странице  :NikolasLaugh
 

epsilon| Пони

2023 Нояб.. 13, 22:54 [#18493]
Я даже не буду на эту кучу текста отвечать честно говоря, кажется Эпс спорит просто ради спора, видно что не понимает как минимум что я ему пишу (например что в мат. нейронке нет генераторов, она конечно и статична), и я не уверен что понимает что он сам пишет.

:Shunsuimmm

Главное знать что я делал поиск по изображениям и обратную генерацию, а Эпс - нет  :PepeNose

Off-Topic: показать
А вы что подумали?  :bukashka


Кук, можешь принять эстафету  :yesbro
:ognepeka

Я, кстати, понял о чём ты говоришь. Но фундаментально ты не прав.  :pony_dunno
Нейронка не ограничена теми на ком она обучалась. Это суть нейронки.
 

epsilon| Пони

2023 Нояб.. 13, 22:54 [#18494]
Кстати, снова первый пост на странице  :NikolasLaugh
:AAA :AAA :AAA

cook| Администратор

2023 Нояб.. 13, 22:59 [#18495]
Кук, можешь принять эстафету  :yesbro


Off-Topic: показать
p.S.s.S.s.
Эпс дело говорит  :SiriusWink

Rindo| It doesn't matter

2023 Нояб.. 13, 22:59 [#18496]
 :nyun

epsilon| Пони

2023 Нояб.. 13, 23:00 [#18497]


Off-Topic: показать
p.S.s.S.s.
Эпс дело говорит  :SiriusWink

Всегда знал, что Кук - голова  :dalton
 

cook| Администратор

2023 Нояб.. 13, 23:01 [#18498]
Всегда знал, что Кук - голова  :dalton
 

просто чел| Трушная оппозиция. Кручу верчу наебать хочу.

2023 Нояб.. 13, 23:11 [#18499]

:pepesady :copium :Pepehomecomening

[вложение удалено администратором]
 

Уткер| Супермодератор

2023 Нояб.. 13, 23:19 [#18500]
 Dafoesmotrit

cook| Администратор

2023 Нояб.. 13, 23:21 [#18501]
:pepesady :copium :Pepehomecomening
Евген, со спичками играешь  :Grozniy :Grozniy

Elessar| Игроки

2023 Нояб.. 13, 23:26 [#18502]
Приятно читать умных людей :mons
 

Монс| RETURN TO MONSE

2023 Нояб.. 13, 23:37 [#18503]
:ognepeka

Я, кстати, понял о чём ты говоришь. Но фундаментально ты не прав.  :pony_dunno
Нейронка не ограничена теми на ком она обучалась. Это суть нейронки.
Вижу только фундаментальное расхождение в терминах, я под нейронкой изначально обозначил чистый алгоритм по вычислению и комбинации ключ-значение, который используется например для поиска и генерации изображений по тексту (в реальных сервисах алгоритм с рандомизатором кстати говоря), он конечный и он ограничен и его можно использовать на практике, это не какая то мат модель это реально работающий алгоритм. Механизм перебора же, я отделил в отдельный элемент - "брут". И вот только если их объединить то ограничение снимается, а это уже и есть нейронка про которую говоришь ты.
 

просто чел| Трушная оппозиция. Кручу верчу наебать хочу.

2023 Нояб.. 13, 23:38 [#18504]
Приятно читать умных людей :mons

мде.........  :ClassicTrash :prihod :Pepehomecomening

[вложение удалено администратором]
 

Монс| RETURN TO MONSE

2023 Нояб.. 13, 23:40 [#18505]
Эпс дело говорит  :SiriusWink
 

epsilon| Пони

2023 Нояб.. 13, 23:40 [#18506]

epsilon| Пони

 

Бегемот| Зеленый утк

2023 Нояб.. 13, 23:42 [#18508]
Если профессионал столкнётся с абсолютно тупым ходом, он запросто может на него ответить далеко не самым оптимальным способом.
Это именно в го так? Просто в шахматах всё иначе: на абсолютно тупые ходы как раз довольно легко отвечать сильнейшими продолжениями. Разве что, допустим, можно из топ5 ходов выбрать не первый, а там 4-ый. Но это всё ещё будет один из лучших ходов.
Я чот в этот пример никак вникнуть не могу, если честно. Если в шахматах чел будет играть ахинею, то он не "смутит" профессионала, а просто за пару ходов сольётся.
Ну, тип профессионал на любой ход может ответить далеко не оптимальным способом, это понятно. Но чтобы это как-то зависело от тупости ходы противника - я хз про такое.
 

epsilon| Пони

2023 Нояб.. 13, 23:44 [#18509]
Вижу только фундаментальное расхождение в терминах, я под нейронкой изначально обозначил чистый алгоритм по вычислению и комбинации ключ-значение, который используется например для поиска и генерации изображений по тексту (в реальных сервисах алгоритм с рандомизатором кстати говоря), он конечный и он ограничен и его можно использовать на практике, это не какая то мат модель это реально работающий алгоритм. Механизм перебора же, я отделил в отдельный элемент - "брут". И вот только если их объединить то ограничение снимается, а это уже и есть нейронка про которую говоришь ты.
Я считаю, что смысла разговаривать о нейронке вырывая её из контекста обучения - нет.
Без обучения, нейронка - это просто большой алгоритм, в котором ничего особенно интересного нет.
Интересен процесс построения этого алгоритма и философия, стоящая за эти процессом.
Как-то так.  :pony_dunno