Что такое нормализация металла


Нормализация стали - что это за процесс, принцип, температура

Большая часть операций, связанных с термической обработкой подразумевает один и тоже алгоритм действий:

  • нагрев изделия до определенных температур;
  • выдержку под действием набранной температуру в течение заданного времени;
  • охлаждение, которое может быть проведено в разных средах и с разной скоростью.

Термообработка деталей может выступать и как промежуточный технологический процесс, и как финишный. В первом случае, через неё проходят те детали, которые еще будут обрабатываться, например, сверла или лопатки авиационных турбин. Второй случай подразумевает то, что после термообработки, готовая деталь получит новые свойства.

Нормализация стали – это один из видов термической обработки металла с последующим его охлаждением на воздухе. Результатом этой операции становится формирование нормализованной структуры стали. Кстати, отсюда и пошло название. Операцию применяют по отношению к поковкам, отливкам и пр. Нормализацию используют для минимизации зерен в структуре стали, образованного сварочным швом.

Суть процесса

Процедура нормализации выглядит следующим образом. Деталь разогревают до температур, которые превышает максимально допустимые параметры (Ас1, Ас3) на 30 – 50 градусов Цельсия, затем, какое-то время ее выдерживают под воздействием этой температуры, после чего ее охлаждают.

Подбор температуры выполняют, руководствуясь маркой стали. Так, сплавы содержащие 0,8 % углерода так называемые заэвтектоидные, обрабатывают при температурах, лежащих между критическими точками Ас1 и Ас3.

Что такое критические точки – так называют температуры, при которых происходят фазовые изменения и структуры сплава при его нагреве или охлаждении.

Результатом этого становиться то, что в твердый раствор попадает некоторый объем углерода и закрепляется аустенита. То есть, на свет появляется структура, состоящая из мартенсита и цементита. Именно цементит приводит к росту стойкости к износу и твердости. Нагрев высокоуглеродистой стали свыше ас3 приводит к тому, что увеличиваются внутренние напряжения. Это происходит из-за того, что растет количество аустенита, в следствии роста концентрации углерода.

Сталь с содержанием углерода менее 0,8% при нагреве свыше критической точки Ас3 приобретает повышенную вязкость. Это происходит потому что в стали этого типа появляется аустенит (мелкозернистый), переходящий в мартенсит (мелкозернистый).

Доэвтектоидная сталь не обрабатывают при температурах, расположенных в диапазоне Ас1 – Ас3. Так как в этом случае появляются феррит, который снижает параметры твердости.

Время необходимое для выполнения операции

Для получения однородной структуры сплава, при определенной температуре, требуется какое-то время. Это время и будет определено как время выдержки стали при нормализации. Опытным путем определено, что слой металла толщиной в 25 мм через час становится однородным. Таким образом. и определяют время нормализации.

 

 

Завершающий этап – охлаждение

Скорость охлаждения играет существенную роль в образовании объема перлита и размера его пластин. Многочисленные исследования показали, что высокая интенсивность охлаждения увеличивает количество перлита и сталь получает повышенную твердость и прочность. Малая интенсивность охлаждения приводит к тому, что сталь теряет твердость и прочность.

При обработке деталей с существенными перепадами размеров, например. валов, целесообразно убрать напряжения, возникающие под воздействием колебания температур. Для этого их предварительно нагревают в емкости, заполненной разными солями. При понижении температуры допускается ускорить этот процесс помещая горячие детали в воду или специально подобранное масло.

Другими словами, нормализация стали устраняет напряжения внутри детали, минимизирует ее структуру. То есть она оказывает прямое влияние на изменение микроструктуры стальных сплавов.

Использование нормализации

Эту форму термической обработки применяют для достижения разных целей. Так применение нормализации может повысить или снизить твердость стального сплава, вязкость и прочностные характеристики. Этот способ термической обработки используют тогда, когда надо улучшить обрабатываемость стали разными методами – резание, штамповка и пр.

Детали, получаемые методом литья проходят нормализацию в целях получения гомогенизированной структуры и устранению внутренних напряжений. То же самое можно и сказать о деталях, полученных после обработки ковкой. То есть нормализация служит для получения однородной структуры металла и устранению внутренних напряжений. Кроме того, этот процесс может быть использован, как замена закаливания изделий со сложным профилем. Кроме, названных результатов процесса нормализации можно добавить и такие как минимизация зерен в структуре сплава, удаление вторичного цементита, повышения обрабатываемости стали.

Близкие по сути процессы термообработки

В перечень термообработки сталей, помимо нормализации, можно внести операции:

  • отжиг;
  • отпуск;
  • закаливание;
  • криогенная обработка и несколько других.

Операция отжига обеспечивает качественную, более тонкую структуру перлита, это происходит потому, что охлаждения деталей применяют печи. Назначение этой операции — понижение неоднородности структуры, удаления напряжений, повышение обрабатываемости.

Основы, заложенные в операцию закаливания, идентичны принципам нормализации, но существуют некоторые различия. Например, при закаливании применяют температуры куда как выше и высокие скорости охлаждения. Закаливание проводит к улучшению прочностных характеристик, твердости и пр. Но, нередко заготовки прошедшие через закаливание отличает сниженная вязкость и высокая хрупкость.

Отпуск деталей применяют после операции закаливания. Отпуск снижает хрупкость и внутренние напряжения. При этом диапазон температур ниже, чем тот, который используют в нормализации. Охлаждение деталей проводят на воздухе. При повышении температуры снижается предел прочности, твердость и в то же время растет ударная вязкость.

Криогенная обработка стали приводит к получению равномерной структуры металла и повышенной твердость. Эту технологию обработки применяют в отношении прошедшей закаливание углеродистой стали.

Нормализация и её применение в практической деятельности

При назначении способа термообработки технолог должен учитывать концентрацию углерода. Стали, в которых содержание углерода не превышает 0,4%, могут быть обработаны и нормализацией и отжигом. Нормализация минимизирует размер зерен в структуре и повышает прочностные характеристики.

Сравнивая затраты времени между нормализацией и другими методами можно сделать вывод, что обработка другими способами, длится больше времени.

За счет скорости выполнения операции, охват большого количества сталей, качеством получаемых параметров (твердость, прочность и пр.), именно поэтому нормализацию широко применяют в машиностроении.

Оцените статью:

Рейтинг: 0/5 - 0 голосов

Что такое нормализация? 1NF, 2NF, 3NF, Пример базы данных BCNF

  • Home
  • Testing

      • Back
      • Agile Testing
      • BugZilla
      • Cucumber
      • 000 J2000
      • 000 J2000 Testing 927 9000 9000 Testing
      • Назад
      • JUnit
      • LoadRunner
      • Ручное тестирование
      • Мобильное тестирование
      • Mantis
      • Почтальон
      • QTP
      • Назад
      • Центр качества (ALM)
      • Центр качества (ALM)
      • Управление тестированием
      • TestLink
  • SAP

      • Назад
      • ABAP
      • 90 003 APO
      • Начинающий
      • Basis
      • BODS
      • BI
      • BPC
      • CO
      • Назад
      • CRM
      • Crystal Reports
      • FICO
      • Hroll Hroll
      • Назад
      • PI / PO
      • PP
      • SD
      • SAPUI5
      • Безопасность
      • Менеджер решений
      • Successfactors
      • SAP Tutorials

  • Web
  • AngularJS
  • ASP.Net
  • C
  • C #
  • C ++
  • CodeIgniter
  • СУБД
  • JavaScript
  • Назад
  • Java
  • JSP
  • Kotlin
  • Linux
  • Linux
  • Kotlin
  • Linux
  • js
  • Perl
  • Назад
  • PHP
  • PL / SQL
  • PostgreSQL
  • Python
  • ReactJS
  • Ruby & Rails
  • Scala
  • SQL
  • 000
  • SQL
  • 000
  • SQL
  • 000 0003 SQL 000
  • UML
  • VB.Net
  • VBScript
  • Веб-службы
  • WPF
  • Обязательно учите!

      • Назад
      • Бухгалтерский учет
      • Алгоритмы
      • Android
      • Блокчейн
      • Бизнес-аналитик
      • Создание веб-сайта
      • Облачные вычисления
      • COBOL
      • Встроенные системы
      • 0003
      • 9000 Эталонный дизайн
      • 900 Ethical
      • Учебные пособия по Excel
      • Программирование на Go
      • IoT
      • ITIL
      • Jenkins
      • MIS
      • Сеть
      • Операционная система
      • Назад
      • Prep
      • Управление проектом
      • Prep
      • PM Salesforce
      • SEO
      • Разработка программного обеспечения
      • VBA
      900 04
  • Большие данные

      • Назад
      • AWS
      • BigData
      • Cassandra
      • Cognos
      • Хранилище данных
      • DevOps Back
      • DevOps Back
      • HBase
        • HBase2
        • MongoDB
    .

    Объяснение нормализации веса и нормализации уровня (нормализация в глубоком обучении, часть 2)

    Пакетная нормализация - одна из причин, по которым глубокое обучение добилось такого выдающегося прогресса в последние годы. Основываясь на его успехе, появились другие методы нормализации, такие как нормализация слоев и нормализация веса, которые также находят применение в этой области.

    В этой серии публикаций предпринимается попытка дать целостное представление о методах нормализации в глубоком обучении.В предыдущем посте я говорил о пакетной нормализации и интуитивном понимании того, почему она улучшает производительность моделей глубокого обучения. В этом посте я обсуждаю ограничения пакетной нормализации, нормализации веса и нормализации уровня, которые являются недавно предложенными методами для преодоления этих ограничений.

    1. Ограничения пакетной нормализации

    Хотя пакетная нормализация - эффективный инструмент, она не лишена ограничений. Ключевым ограничением пакетной нормализации является то, что она зависит от мини-партии .

    Если вы помните, пакетная нормализация вычисляет среднее значение и дисперсию каждого мини-пакета и нормализует каждую функцию в соответствии со статистикой мини-пакета. Это означает, что среднее значение и дисперсия будут отличаться для каждой мини-партии. Эта зависимость вызывает две основные проблемы:

    1. Он устанавливает нижний предел для размера партии

    Очевидно, что нормализация пакета не может использоваться, когда размер пакета равен 1, но даже немного большие размеры пакета могут вызвать проблемы. В идеале мы хотим использовать глобальное среднее значение и дисперсию для нормализации входных данных для слоя.Однако вычисление среднего значения для всего набора данных после каждого обновления сети слишком дорого. Вот почему мы, , оцениваем как среднее значение и дисперсию, используя статистику минипакетов. Тот факт, что среднее значение и дисперсия являются просто оценками, означает, что они содержат определенную ошибку и будут варьироваться от мини-партии к мини-партии. Меньшие размеры мини-партий увеличивают дисперсию этих оценок, а это означает, что мы должны быть особенно осторожны с размером партии при использовании SGD с нормализацией партии.

    2. Это затрудняет применение пакетной нормализации к повторяющимся соединениям в повторяющейся нейронной сети

    В рекуррентной нейронной сети периодические активации каждого временного шага будут иметь разную статистику. Это означает, что мы должны установить отдельный слой пакетной нормализации для каждого временного шага. Это усложняет модель и, что более важно, заставляет нас хранить статистику для каждого временного шага во время обучения.

    Нижний предел размера пакета может быть проблемой в таких настройках, как онлайн-обучение (где отдельные примеры обрабатываются индивидуально) и обучение с подкреплением, которое очень чувствительно к шуму. Сложность применения пакетной нормализации к повторяющимся слоям - огромная проблема, учитывая, насколько широко используются повторяющиеся нейронные сети.

    Учитывая, насколько мощна нормализация, очень жаль, что пакетную нормализацию нельзя использовать в определенных настройках.К счастью, некоторые выдающиеся исследователи разработали альтернативы пакетной нормализации, которые решают эти проблемы. Нормализация веса и слоя - это подходы к нормализации, которые используют статистику, независимую от мини-пакета. Давайте рассмотрим их подробнее.

    2. Нормализация веса

    Нормализация веса - это метод, разработанный Open AI, который вместо нормализации мини-пакета нормализует веса слоя .

    Нормализация весов изменяет параметры весов любого слоя в нейронной сети следующим образом:

    Подобно пакетной нормализации, нормализация веса не снижает выразительную мощность сети.Что он делает, так это то, что отделяет норму весового вектора от его направления . Затем он оптимизирует оба и использует градиентный спуск. Это изменение в динамике обучения упрощает оптимизацию, как я объяснил в предыдущем посте.

    Преимущества

    За исключением того, что среднее значение и дисперсия не зависят от партии, нормализация веса часто намного быстрее, чем нормализация партии. В сверточных нейронных сетях количество весов, как правило, намного меньше, чем количество входных данных, что означает, что нормализация весов дешевле в вычислительном отношении по сравнению с пакетной нормализацией.Пакетная нормализация требует прохождения через все элементы ввода, что может быть чрезвычайно дорогостоящим, особенно когда размерность ввода высока, например, в случае изображений. Свертки используют один и тот же фильтр в нескольких местах, поэтому пропускание весов происходит намного быстрее.

    Хотя нормализация веса сама по себе может помочь в обучении, авторы статьи предложили использовать метод, называемый «нормализация партии только по среднему», в сочетании с нормализацией веса.Этот метод аналогичен пакетной нормализации, за исключением того, что он не делит входные данные на стандартное отклонение и не масштабирует их. Хотя этот метод противодействует некоторому ускорению вычислений при нормализации веса, он дешевле, чем пакетная нормализация, поскольку не требует вычисления стандартных отклонений. Авторы утверждают, что этот метод дает следующие преимущества:

    1. Это делает среднее значение активаций независимым от

    .

    Нормализация весов независимо не может изолировать среднее значение активаций от весов слоя, вызывая высокоуровневые зависимости между средними значениями каждого слоя.Нормализация партии "только среднее" может решить эту проблему.

    2. Добавляет "более мягкий шум" к активациям

    Одним из побочных эффектов пакетной нормализации является то, что она добавляет некоторый стохастический шум к активациям в результате использования зашумленных оценок, вычисленных для мини-пакетов. Это имеет эффект регуляризации в некоторых приложениях, но может быть потенциально вредным в некоторых областях, чувствительных к шуму, таких как обучение с подкреплением. Шум, вызываемый оценками среднего значения, однако, более «мягкий», поскольку закон больших чисел обеспечивает приблизительно нормальное распределение среднего значения активаций.

    Экспериментальные результаты, представленные в документе, показывают, что нормализация веса в сочетании с пакетной нормализацией только на среднее дает наилучшие результаты в CIFAR-10, наборе данных классификации изображений. Подробные экспериментальные результаты см. В исходной статье.

    3. Нормализация уровня

    Нормализация слоев - это метод, разработанный Geoffery Hinton. По сравнению с нормализацией веса, нормализацию слоев немного сложнее понять интуитивно.

    Чтобы понять нормализацию слоев, вспомните, что мини-пакет состоит из нескольких примеров с одинаковым количеством функций. Мини-пакеты - это матрицы или тензоры, если каждый вход многомерный, где одна ось соответствует

    .

    Что такое групповая нормализация ?. Альтернатива пакетной нормализации | by Wanshun Wong

    Различные методы нормализации

    Чтобы мотивировать формулировку GN, мы сначала рассмотрим некоторые из предыдущих методов нормализации.

    Все следующие методы нормализации выполняют расчет

      xᵢ  ← ( xᵢ  - 𝜇 ) / √ (𝜎  ² + 𝜀) 

    для каждого коэффициента xᵢ входной характеристики х . и ² - это среднее значение и дисперсия, вычисленные по набору Sᵢ коэффициентов, а 𝜀 - небольшая константа, добавляемая для числовой стабильности и во избежание деления на ноль. Разница лишь в том, как выбран набор Sᵢ .

    Чтобы проиллюстрировать вычисление методов нормализации, мы рассматриваем пакет размером N = 3, с входными элементами a , b и c. У них есть каналы C = 4, высота H = 1, ширина W = 2:

      a  = [[[2, 3]], [[5, 7]], [[11 , 13]], [[17, 19]]] 
    b = [[[0, 1]], [[1, 2]], [[3, 5]], [[8, 13]] » ]
    c = [[[1, 2]], [[3, 4]], [[5, 6]], [[7, 8]]]]

    Следовательно, партия будет иметь форму ( N , C , H , W ) = (3, 4, 1, 2).Возьмем 𝜀 = 0,00001.

    Пакетная нормализация

    BN нормализует каналы и вычисляет 𝜇 и 𝜎 по осям ( N , H , W ). Sᵢ определяется как набор коэффициентов в пакете, которые находятся в том же канале, что и xᵢ .

    Для первого коэффициента aᵢ = 2 из a , где i = (0, 0, 0), соответствующие 𝜇 и 𝜎 ² вычисляются по коэффициентам a , b и c , которые находятся в первом канале:

     𝜇  ᵢ = среднее значение  (2, 3, 0, 1, 1, 2) = 1.5 
    𝜎 ² = var (2, 3, 0, 1, 1, 2) = 0.917

    Подставляя их в формулу нормализации,

      aᵢ  ← (2 - 1,5) / √ (0,917 + 0,00001 ) = 0,522 

    Вычисление всех коэффициентов a дает

      a  ← [[[0.522, 1.567]], [[0.676, 1.690]], [[1.071, 1.630]], [[1.066, 1.492 ]]] 

    Нормализация уровня

    Нормализация уровня (LN) предназначена для преодоления недостатков BN, включая его ограничения на размер пакета.Он вычисляет 𝜇 и 𝜎 по осям ( C , H , W ), при этом определяется как все коэффициенты, принадлежащие той же входной характеристике, что и xᵢ . В результате вычисление входной функции полностью не зависит от других входных функций в пакете.

    Все коэффициенты a нормированы одинаковыми 𝜇 и 𝜎 ²

     𝜇  ᵢ = среднее значение  (2, 3, 5, 7, 11, 13, 17, 19) = 9.625 
    𝜎 ² = var (2, 3, 5, 7, 11, 13, 17, 19) = 35,734

    Следовательно, применение LN к a дает

      a  ← [[[-1.276, -1,108]], [[-0,773, -0,439]], [[0,230, 0,565]], [[1,234, 1,568]]] 

    Нормализация экземпляра

    Нормализация экземпляра (IN) может рассматриваться как применение формулы BN к каждому входному объекту (также известному как экземпляр) индивидуально, как если бы он был единственным элементом в пакете. Точнее, IN вычисляет 𝜇 и 𝜎 по осям ( H , W ), а определяется как набор коэффициентов, которые находятся в одном входном элементе, а также в одном и том же канал как xᵢ .

    Поскольку вычисление IN происходит так же, как вычисление BN с размером пакета = 1, IN фактически в большинстве случаев ухудшает ситуацию. Однако для задач передачи стилей IN лучше отбрасывает информацию о контрасте изображения и имеет лучшие характеристики, чем BN.

    Для первого коэффициента aᵢ = 2 из a , , где i = (0, 0, 0), соответствующие 𝜇 и 𝜎 ² просто равны

     𝜇  ᵢ = среднее значение  (2, 3) = 2.5 
    𝜎 ² = var (2, 3) = 0,25

    , что дает

      aᵢ  ← (2 - 2,5) / √ (0,25 + 0,00001) = -1,000 

    Когда мы применяем IN к a , получаем

      a  ← [[[-1.000, 1.000]], [[-1.000, 1.000]], [[-1.000, 1.000]], [[-1.000, 1.000]]] 

    Группа Нормализация

    Ранее мы ввели IN как применение BN к каждой входной функции индивидуально, как если бы размер пакета = 1. Обратите внимание, что IN также можно рассматривать как применение LN к каждому каналу индивидуально, как если бы количество каналов = 1.

    Групповая нормализация (GN) - это золотая середина между IN и LN. Он объединяет каналы в разные группы и вычисляет 𝜇 и 𝜎 по осям ( H , W ) и по группе каналов. Тогда Sᵢ - это набор коэффициентов, которые находятся в той же входной характеристике, а также в той же группе каналов, что и xᵢ .

    Количество групп G - это предварительно определенный гиперпараметр, который обычно требуется для разделения C .Для простоты сгруппируем каналы в последовательном порядке. Таким образом, каналы 1,…, C / G относятся к 1-й группе, каналы C / G + 1,…, 2 C / G относятся ко 2-й группе и так далее. Когда G = C , что означает, что каждая группа имеет только 1 канал, GN становится IN. С другой стороны, когда G = 1, GN становится LN. Поэтому G управляет интерполяцией между IN и LN.

    Для нашего примера рассмотрим G = 2.Чтобы нормализовать первый коэффициент aᵢ = 2 от a , где i = (0, 0, 0), мы используем коэффициенты a в первых 4/2 = 2 каналах

     𝜇  ᵢ = среднее значение  (2, 3, 5, 7) = 4,25 
    𝜎 ² = var (2, 3, 5, 7) = 3,687

    Подставляя их в формулу нормализации,

      aᵢ  ← (2 - 4,25) / √ (3,687 + 0,00001) = -1,172 

    Для других коэффициентов a вычисления аналогичны:

      a  ← [[[-1.172, -0,651]], [[0,391, 1,432]], [[-1,265, -0,633]], [[0,633, 1,265]]] 
    .

    Нормализация базы данных - компьютерные заметки

    • Перейти к основному содержанию
    • Перейти к основной боковой панели
    • Перейти к второй боковой панели
    • Перейти к нижнему колонтитулу

    Компьютерные заметки

    Библиотека
      • Компьютерная память 9140004
      • Учебник по СУБД
      • Операционная система
      • Компьютерные сети
      • Программирование на C
      • Программирование на C ++
      • Программирование на Java
      • Программирование на C #
      • 0 Учебное пособие на компьютере 9144
      • 9144
      • Управление компьютером
      • Compiler Design
      • Style Sheet
      • JavaScript Tutorial
      • Html Tutorial
      • Wordpress Tutorial
      • Python Tutorial
      • PHP Tutorial
      • JSP Tutorial
      • JSP Tutorial
      • JSP Tutorial 03 AngularJS Tutorial
      • Data Structures
      • E Commerce Tutorial
      • Visual Basic
      • Structs2 Tutorial
      • Цифровая электроника
      • Условия использования Интернета
      • Servlet Tutorial
      • 43 Вопросы по программированию
      • Основные термины
      • Устранение неполадок
    Меню.

    Смотрите также