В чем отличие wn от ln
Перейти к содержимому

В чем отличие wn от ln

Умножая познания, умножаешь печаль

В целом, это будет не столько рецензия, сколько выплеск накопившихся эмоций. Сразу предупрежлаю о спойлерах. Если вы еще не дочитали до конца эту историю — не читайте всё, что будет дальше.

Итак, если одним предложением — история замечательная. Это история простого человека, без супер скилов и читов. Он такой же как любой другой человек — совершает ошибки, имеет недостатки и переживает из-за неудач. Если брать в расчет основную серию, впечатление складывается именно такое. Даже с учетом скомканой концовки, сюжет был хороший, персонажи со своими уникальными особенностями, а события интересными. А вы помните конец жизни Рудэуса? Та часть, когда ему остались последние минуты и он лежит в окружении своих жен, детей и внуков. Боже, это первый раз, когда я плакал с простой книги.

Кхм, перечислять хорошие черты «Безработного» можно долго и это уже сто раз сделали до меня, так что теперь перейду к плохим моментам. В основном, у меня пригорело от истории Аиши и Арса.

Сразу выскажусь: я совсем не против пары Аиши и Арса. Даже наоборот. Потому что я читатель, а не отец. И да, я считаю, что Рудэус тут неправ. Это не наш мир. зря он зацепился за эти правила про родственные связи. Их тянуло друг к другу вот и всё. Дело вовсе не в инцесте или еще чём-то. Аиша больше, чем кто либо заслужила счастья. Она слишком многим пожертвовала ради счастья других, от неё слишком много требовали и слишком часто порицали.. Так почему ей нельзя было стать счастливой самой?
Идиот он крч (Руди). Слишком зажрался в своём гареме видимо.
Глава про аишу вообще была ужасной. Я только и слышал все эти извинения и упреки: «мне это отвратительно» или «ты не права». А потом он еще такой, типа герой: «ты совершила ошибку, но я так и быть тебя прощаю». А потом разделил её с только рожденным ребенком и мужем. Всего-то на каких-то четыре года («всего-то четыре», ага ага). Типа, чтобы они поучились и набрались мозгов вдали друг от друга.
Пи*дец, товарищи.
Она — не игрушка и не вещь. И твой сын тоже.
И не в возрасте дело, и не в родстве, и не в чем-то еще.
Просто их счастье разрушило твою идиллию, вот и всё.
Лучше бы я это не читал, так бы у меня были лучшие ощущения от этого человека.

Такое ощущение, что эти части писал совсем другой автор. Кто-то в комментах писал, что автору скорее всего сказали поскорее заканчивать WN версию, чтобы полностью переключиться на LN. Видимо так и было. Этим и объясняются все эти косяки в конце.
Например, дико раздражает, что нету истории про события после смерти ГГ.
Да, это уже другая история и тд, но могли бы хоть намекнуть что там случилось с Нанахоши например. Или куда делась душа самого Рудэуса. Или что случилось дальше с Рокси и Сильфи. Они же долгожители и тд. Орстед еще, битва с Хитогами. Мико времени с тем её парнем.
Столько недосказанного осталось. Эх

Остается надеяться на лайтовую версию. Может хоть в ней допилят все эти неясности

Русские Блоги

Изменение входного уровня переднего слоя в сети с глубокой обратной связью часто вызывает изменение заднего слоя. Заднему слою необходимо постоянно корректировать свои параметры, чтобы адаптироваться к входному изменению переднего слоя. Это называется внутренним смещением ковариации. Это не только замедлит обучение сети, но и облегчит некоторые нелинейные функции активации, такие как сигмоид, в область насыщения.

Традиционный метод решает эту проблему путем предварительной обработки образцов, используя отбеливание, и позволяя признакам образцов быть независимыми и одинаково распределенными. Как нормализовать глубокую сеть? Вычислите среднее значение и дисперсию объекта для всех образцов, чтобы нормализовать объект. Однако этот подход часто требует большого объема вычислений. Кто-то предложил нормализацию бактерий. Во-первых, образцы образцов каждой партии нормализуются. Однако с помощью простой стандартизации распределение исходных параметров будет изменено: слои за сетью пытаются настроить свое распределение на вход предыдущего уровня, но стандартизация заставляет его потерять свое распределение. Поэтому на основе стандартизации автор предлагает восстановить нормализованные данные до исходного распределения через два параметра масштаба и смещения. После пакетной нормализации сеть становится более стабильной. В то же время нормализация партии выполняет одну и ту же операцию для каждой выборки, так что сеть не зависит от одной выборки, поэтому она также обеспечивает эффект регуляризации. Конкретный процесс заключается в следующем:

Пакетная нормализация может быть применена к сверточным сетям. Поскольку каждая карта признаков в сверточной сети представляет один и тот же признак, чтобы не изменять исходный характер сверточной сети, каждая карта признаков в сверточной сети имеет независимые параметры масштаба и смещения.

Можно ли применить пакетную нормализацию к рекуррентным нейронным сетям, таким как rnn? Думайте о каждом временном шаге рН как о каждом слое глубокой сети, который можно преобразовать в нейронную сеть с прямой связью. Затем нормализация партии также может быть применена к рН. Однако эксперименты показали, что разделение среднего значения и дисперсии между различными временными шагами не работает хорошо. Исходя из этого, некоторые люди предложили периодическую нормализацию партии. Во-первых, поскольку эффект совместного использования временного шага не является хорошим, он не используется совместно, и каждый временной шаг нормируется отдельно. Тем не менее, во время тестирования, что если максимальный временной шаг обучающего набора меньше, чем обучающий шаг тестового набора. Авторский метод также очень прост: определить максимальный шаг времени Tmax и обрезать тестовый набор, который превышает максимальный шаг времени. В то же время автор обнаружил, что была еще одна причина, по которой предыдущие экспериментальные результаты не работали, то есть масштабный коэффициент, как правило, инициализировали равным 1. Для функции активации tanh, чем меньше стандартное отклонение входа, тем ближе будет производная tanh к 1. По мере увеличения стандартного отклонения производная приближается к нулю и входит в область насыщения. Следовательно, эффект будет лучше при меньших масштабных параметрах.

Глубокие сети часто являются процессом оптимизации, основанным на градиентном спуске. Сложность оптимизации зависит от числа условий матрицы Гессиана, которая отражает поверхностные характеристики ошибки, такие как локальные минимумы, седловые точки и т. Д. На такие сети часто влияют параметры. больше. Как сделать обучение в сети проще, настроив параметры? Традиционный метод состоит в том, чтобы предварительно подготовить сеть перед тренировкой и умножить градиент на инверсию информационной матрицы Фишера для имитации естественного градиента. При естественном градиенте целевое значение может сильно измениться, если параметры совпадают. Точно так же нормализация партии такая же: она не выполняет предварительное условие, но ее процесс может быть аналогичен процессу изменения информационной матрицы Фишера в единичную диагональную матрицу. Вдохновленный нормализацией партии, в то же время, чтобы решить проблему большой памяти вычислений нормализации партии и не применимой в рН, кто-то предложил нормализацию веса.

Нормализация веса — это также процесс повторной параметризации информационной матрицы Фишера по диагонали. Нормализация веса разбивает обновление веса на обновление направления и обновление размера, см. Формулу 2. Это выполняет две вещи: 1. масштабирование обновления градиента и 2. проецирование вектора градиента за пределы вектора веса. Таким образом, не только изменение величины градиента может быть напрямую связано с изменением величины веса, но также может быть уменьшено влияние шума вектора веса на градиент благодаря проекции. Поскольку пакетная нормализация может фиксировать дисперсию и среднее входных характеристик каждого слоя сети, но нормализация веса не может, поэтому параметры масштаба и смещения могут быть инициализированы как функция дисперсии и среднего значения выборки во время инициализации.

(1)Уравнение 2

Чтобы решить проблему нормализации рН, кто-то предложил нормализацию слоя. В отличие от предыдущей периодической нормализации, которая нормализует каждый временной шаг, нормализация слоя является вертикальной нормализацией рН. В отличие от предыдущей партии нормализации или нормализации веса, нормализация слоя не является процессом повторной параметризации. Нормализация слоя нормализует входные скрытые единицы слоя каждого слоя: скрытые единицы слоя того же слоя применяют одну и ту же нормализацию, и одинаковые параметры масштаба и смещения используются для каждого временного шага одного и того же слоя. Отличается, настолько отличается нормализация, так что один образец также может быть стандартизирован.

Уравнение 3

Вышеуказанные типы нормализации на самом деле связаны друг с другом: все они нормализуют вход, масштаб и смещение. Подробности см. В уравнении 4. То же самое верно для нормализации веса, за исключением того, что его среднее значение равно 0, а его дисперсия равна || V ||. Эти виды нормализации имеют определенную инвариантность масштабирования, такую ​​как инвариантность масштабирования веса и инвариантность масштабирования данных, которые делают обучение в сети более быстрым и стабильным и снижают требования к скорости обучения.

Уравнение 4

Эти нормализации также могут быть поняты с точки зрения пространства параметров. Параметры, изучаемые моделью, могут образовывать гладкое пространство коллектора, которое может отражать взаимосвязь между различными входами и выходами. Как измерить изменения в параметрах, которые вызывают изменения в выходном распределении? Принимая выходную вероятность в качестве риманова многообразия, изменение выходного распределения может отражаться расхождением kl выходной вероятности до и после изменения параметра. Посредством приближенного расширения Тейлора можно получить, что при изменении параметров изменение распределения вероятности выхода аналогично изменению параметра, связанному с информационной матрицей Фишера. Анализируя различные нормализованные информационные матрицы Фишера, нормализованная информационная матрица Фишера контролируется параметрами шкалы и изменениями дисперсии. Поэтому, когда параметр сильно меняется, распределение его выхода не сильно изменится, и обучение будет более стабильным. В то же время при нормализации изменение параметров в основном определяется ошибкой прогнозирования, а обучение сети без нормализации в основном определяется нормой параметров. Таким образом, тренировка становится более устойчивой после нормализации.

[1] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

[2] RECURRENT BATCH NORMALIZATION

[3] Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks

Посмотрел «Да, я паук, и что же?»

ШТОШ. Как читавший мангу и ранобэ, я не ожидал от этого аниме (после выхода CGI трейлера) чего-то серьезного. Это и произошло.

первая арка: исекай в результате инцидента класса ОЯШей, ГГ переносит в паука, ГГ качается.

Да, это тот самый случай, когда вкачка персонажа это весь сюжет. Это было ужасно скучно читать в ранобэ (статы в полторы страницы, кажется не шутил про это только ленивый), и весьма захватывало в манге (а уж сцена с земляным драконом Алабой в манге выглядит очень сильно, как и всё их противостояние).

вторая арка: выход с подземелья и странствие, в аниме почти полностью опущено.

ГГ выходит из подземелья, утрясает вопросики (это в аниме ещё показано), а затем стартует роадмуви с вампирчиком (это только стартануло в 24 серии). Это самая топовая арка ранобэ (в манге ещё не дошло).

третья арка: противостояние с эльфами, лор мира и дальнейший глобал до ongoing статуса ранобэ. Частично показано в аниме.

На моей памяти это было единственное произведение, которое объясняло причину появления РПГ системы в самом мире. Т.е. не просто, что она есть, а зачем она нужна. Именно после этого объяснения, читавший готов простить рояль с эльфами.

История членов класса в ранобэ и манге была показана через сайдстори и экстра главы!

Мои низкие ожидания к аниме были вызваны двумя причинами.

Первое, это CGI. Очень мало студий могут делать качественный CGI, а это аниме от студии выпустивший того самого Берсерка, nuff said.

Второе, это полное отличие между арками (между собой) и сайдстори в том числе. Я честно не представлял, как вообще можно качественно экранизировать более одной арки. Это и произошло, их экранизировали некачественно. Заодно ещё и сделав жирный акцент на сайдстори членов класса.

Сама экранизация

Ужасный CGI отвратительный. Если первую половину аниме (первая арка) его ещё можно простить (там был всратый игрушечный чардиз, но хорошая динамика, для чего CGI и оправдан), то во второй половине сериала, а точнее в последней четверти…ну это просто слайдшоу с качеством как в Повелителе. Позор.

Большую часть интриг второй арки просто опустили, но показали их последствия.

Роадмуви вероятно оставили на второй сезон, если он вообще будет.

Экранизация сайдов про класс выглядит скучно. Да она такая и есть в первоисточнике. Если вывести за скобки поехавшего однокашку вставшего на путь мести, из-за того что он не главный тащер в исекае, то там ничего и нет больше.

Вторую арку, даже то что из неё показали, резали.

Показали начало третьей арки (тайну эльфов) не раскрыв лор. Ох, какая же это была ошибка. Даже зная первоисточник мне было больно на это смотреть, те кто его не читал наверно пробивали лицо рукой в фейспалме.

А этот кадр, как и последняя сцена вообще похожи на точку в вопросе дальнейшей экранизации.

Единственное что в аниме сделали лучше — показывали чаще как выглядит паук без аниме-глазок. А то с чего бы людям этого чибика пугаться.

Можете посмотреть эпизоды подземелья, скипая исекай повседневность однокашек. После выхода из подземелья даже сцены с ГГ начали резать. А дальше вообще начался бардак.

Хотя я бы предложил почти с самого начала читать мангу, чтобы в полной мере насладиться развязкой с Алабой. Ведь там то он реально внушает страх и напоминает стихийное бедствие, а не игрушку.

Манга сейчас на начале второй арки. Потому можно сразу переключиться на ранобэ, у него есть перевод до анлейта. Там есть LN и WN, я не совсем понял в чем их разница.

Вот сейчас закончил смотреть. Отличный исекай. Всё нормально смотрится: нормальная анимация и CGI выглядит норм. Очень классный комейдийный исекай на 24 серии. Автор какой-то слишком хейтер. Смотрите все серии, ибо в них лор расскрывается. Если вы будете скипать серии с одноклассниками, то тогда вообще не смотрите сериал. Зачем отрезать от себя часть лора. Мне этого не понять.

Мангу лучше не читайте. Читайте всегда первоисточник, он всегда лучше. Есть парочку исключений, но в основном первоисточник топ. У паучка первоисточник это ранобэ. Его и читайте. А ещё не перепутайте ранобэ с веб-новелами. Очень много авторов начинали с веб-новелл, а уже потом они смогли уже создать полноценную ранобэ. Читайте конечно же улучшеную ранобэ.

В данной ситуации мангу можно читать чисто из-за рисунка, он классный хоть и отличается от ранобе-версии.
А читать лучше всего веб-новеллу, если веб-новелла закончена. Потому что ранобе это уже не труд автора, а труд редактора по большей части, который направлен на зарабатывание бабла, а не творческий процесс.

Как я понимаю ты ни разу не читал послесловия автора ранобэ. Если ты пишешь такую чушь про веб романы.

Я сейчас ложусь спать и полностью раскрывать тему не буду. Но это очень плохая точка зрения.

"Спасибо тем-то тем-то и тем-то, простите за это, вот это и это". Единственный кто хоть как-то отличился в послесловии это автор "Лог Горизонт", который об имоте писал. Ранобе — на 40-90% состоит из работы редактора. Веб-новелла — полностью авторский продукт.
Проблемы веб-новел в том, что действительно нормальные произведения в случае получения популярности автором дропаются и переделываются под ранобку. И это единственная причина читать ранобе — вебка банально отсутствует\не закончена.

Читайте мангу, в аниме много чего вырезали и еще этих одноклассников форсили(зачем делать серии, посвященные им? Они же скучные)

Уж лучше оригинал читать. В манге треть сюжетки выкинули на помойку. Всрали дизайн практически всех персов.
Еще и умудрились по событиям от аниме отстать.

Судя по всему тексту и последней строчке складывается впечатление, что ранобэ ты не читал.

Тогда откуда этот бред про арки?
Почему не знаешь чем отличается ранобэ от веб черновика? Наверное что то из этого не видел. Скорее всего именно ранобэ. Там именно такое же повествование как в аниме.

Бред? Тон повествование в "арках" меняется кардинально.
Читал с рулейта и novelupdates, там написано WN, на рулейте получается тоже перевод WN.

Вебка это вебка.
Не ранобэ.
Аниме и манга по ранобэ.

Так ты вебку читал. Вот сейчас зашел посмотреть и на рулейте вебка лежит.

Я просто к чему, там в ранобэ другое построение глав и соответственно другие арки. И то что в аниме закончили это всего лишь 5й том из 13(14?) вышедших томов и оно все еще не догнало WN. Там кучу всего нового добавили. Так например, последующая арка — это не наблюдением за ростом вампира, а битва с поехавшими параллельными сознаниями.
На английском есть всего 11 томов. На русском перевели 6.

История членов класса в ранобэ и манге была показана через сайдстори и экстра главы!

Так вот, в ранобэ, история членов класса подавалась через каждую главу. Плюс еще добавлялись главы от лица других персонажей. Так например с какого то этапа история стала идти от лица Ариэль. Хотя впрочем они и в вебке были. Но смысл в том что при этом главы от школьников никуда не делись и по итогу паучихе выделено чуть больше 1/3 всего времени.
Но в ранобэ с этим все равно куда лучше чем в аниме. Там реально переборщили с вырезанием многих моментов, кое что поменяли, что то добавили, но все равно, в целом примерно идет тоже самое.

Difference between WN and LN

Hi guys, I'm considering picking up this series and I noticed there's a narou version.

What's the difference between the 2 versions?

Jiharo said:
Hi guys, I'm considering picking up this series and I noticed there's a narou version.

What's the difference between the 2 versions?

The LN is basically the same thing as the WN with just an extra story in between volume 6 & 7, It is label as volume 7 in the LN.

Jiharo said:
Hi guys, I'm considering picking up this series and I noticed there's a narou version.

What's the difference between the 2 versions?

The LN is basically the same thing as the WN with just an extra story in between volume 6 & 7, It is label as volume 7 in the LN.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *