수학에서 최대 기능 최대(x1,…,)n)에, 인덱싱 된 가족 x1,..., 숫자의 xn의 원활한 최대는 매끈매끈한 근사,{\displaystyle \max(x_{1},\ldots{n,x_}),}α(x1,…,)n){\displaystyle m_{\alpha}(x_{1},\ldots{n,x_})} 같은 tha도 기능은 파라메트릭 가족이라는 것을 뜻한다.t α 마다 함수 m α {\ displaystyle m_{\alpha }} 은 (는) 매 α {\displaystyle m_{\alpha }\max } 에 최대 함수 m α → α → ∞ {\displaysty \alpha \to \fto \ fto }으로 수렴한다. 부드러운 최소 의 개념은 유사하게 정의된다. In many cases, a single family approximates both: maximum as the parameter goes to positive infinity, minimum as the parameter goes to negative infinity; in symbols, m α → max {\displaystyle m_{\alpha }\to \max } as α → ∞ {\displaystyle \alpha \to \infty } and m α → min {\displaystyle m_{\alpha }\to \min } as α → - ∞[\displaystyle \alpha \to -\infit }. 이 용어는 파라메트리화 계열의 일부일 필요 없이 최대값과 비슷하게 동작하는 특정 매끄러운 기능에 느슨하게 사용될 수도 있다.
예 다양한 파라미터 값에 대한 (-x, x) 대 x의 최대 평활값. α {\displaystyle \alpha } =0.5의 경우 매우 부드러우며, α {\displaystyle \alpha } =8의 경우 더 선명하다. 매개변수 α > 0 {\displaystyle \alpha >0} 의 큰 양의 경우, 다음 공식은 최대 함수의 부드럽고 서로 다른 근사값이다. 절대값이 큰 파라미터의 음수 값은 최소값과 근사하다.
S α ( x 1 , … , x n ) = ∑ i = 1 n x i e α x i ∑ i = 1 n e α x i {\displaystyle {\mathcal{S}_{\alpha }(x_{1},\ldots,x_{n})={\frac {\sum_{i=1}x_{i}e^{\sum _{i=1}{i}}{i=1}^{n}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}. S α {\ displaystyle {\mathcal {S}_{\alpha }}} 에는 다음과 같은 속성이 있다 .
S α → max {\displaystyle {\mathcal {S}_{\alpha }\to \ft} α → ∞ {\displaystyle \alpha \to \fty}} S 0 {\ displaystyle {\mathcal{S}_{0}} 은 (는) 입력의 산술 평균 이다. S α → min {\displaystyle {\mathcal {S}_{\alpha }\to \ft }\to \inflt } \ min α → - display {\displaystyle \alpha \to_\inft} S α {\ displaystyle {\mathcal{S}_{\alpha }}} 의 구배는 소프트맥스 와 밀접하게 관련되어 있으며 다음과 같이 주어진다.
∇ x i S α ( x 1 , … , x n ) = e α x i ∑ j = 1 n e α x j [ 1 + α ( x i − S α ( x 1 , … , x n ) ) ] . {\displaystyle \nabla _{x_{i}}{\mathcal {S}}_{\alpha }(x_{1},\ldots ,x_{n})={\frac {e^{\alpha x_{i}}}{\sum _{j=1}^{n}e^{\alpha x_{j}}}}[1+\alpha (x_{i}-{\mathcal {S}}_{\alpha }(x_{1},\ldots ,x_{n}))]. } 이것 은 소프트맥스 기능 을 구배 강하를 사용하는 최적화 기법에 유용하게 만든다.
LogSumExp 또 다른 부드러운 최대값은 LogSumExp :
L S E α ( x 1 , … , x n ) = ( 1 / α ) 통나무를 하다 ( 생략하다 ( α x 1 ) + … + 생략하다 ( α x n ) ) {\displaystyle \mathrm {LSE} _{\alpha }(x_{1},\ldots,x_{n})=(1/\alpha )\log(\alpha x_{1}+\ldots +\ext(\alpha x_{n})}}}}} 이것 은 또한 x i {\ displaystyle x_{i} 가 모두 음수가 아닌 경우에도 정규화될 수 있으며, 도메인 [0 , ∞ )n {\ displaystyle [0,\inft )^{n} 과 범위 [0 , ∞ ){\displaystysty [0,\infty )} 을 갖는 함수가 있다.
g ( x 1 , … , x n ) = 통나무를 하다 ( 생략하다 ( x 1 ) + … + 생략하다 ( x n ) − ( n − 1 ) ) {\displaystyle g(x_{1},\ldots ,x_{n}=\log(\exp(x_{1})+\ldots +\exp(x_{n}-)(n-1)} (n - 1 ) {\displaystyle (n-1)} 용어는 exp (0 ) = 1 {\displaystyle \ exp(0)=1 }을( 를) 취소하여 수정하고, 모든 x i {\ displaystystyle x_{i }가 0인 경우 로그 1 = 0을( 를)로 수정한다.
p-Norm 또 다른 부드러운 최대값은 p-norm 이다.
( x 1 , … , x n ) p = ( x 1 p + ⋯ + x n p ) 1 / p {\displaystyle (x_{1},\ldots,x_{n}) _{p}=\왼쪽(x_{1}^{p}+\cdots + x_{n} ^{p}\right)^{1/p}}{1/p}} ( x 1 , … , x n ) ∞ = 최대 1 ≤ i ≤ n x i {\ displaystyle (x_{1},\ldots,x_{n}) _{\nft }=\max _{1\leq i\leq n} x_{i}} } }을 p → ∞\\displaystyp\to \inft.
p-norm의 장점은 그것 이 표준이라는 것이다. As such it is "scale invariant" (homogeneous): ( λ x 1 , … , λ x n ) p = λ × ( x 1 , … , x n ) p {\displaystyle (\lambda x_{1},\ldots ,\lambda x_{n}) _{p}= \lambda \times (x_{1},\ldots ,x_{n}) _{p}} , and it satisfies the triangular inequality.
수치적 방법에 사용 이 구간은 비어 있다. 덧셈 으로 도움도 된다. (2015년 2월 )
평활함수의 기타 선택사항 m a x α ( x 1 , x 2 ) = ( ( x 1 + x 2 ) + ( x 1 − x 2 ) 2 + α ) / 2 {\displaystyle {\mathcal {max}_{\max}}(x_{1}+x_{2})=\left(x_{1}-x_{2})+{\sqrt {(x_{1}-x_{2})^{2}+\i1\right)/2} [1] 여기서 α → 0 {\displaystyle \alpha \to 0} 은 매개 변수다.
참고 항목
참조 https://www.johndcook.com/soft_maximum.pdf
M. 랑게, D. 뮐케, O. 홀츠, T. Proc 에서 Villmann은 "경사로 기반 학습 벡터 정량화를 위한 lp-norms의 적용 및 그 부드러운 근사치"를 인용했다. ESANN , 2014년 4월, 페이지 271-276 (https://www.elen.ucl.ac.be/Proceedings/esann/esannpdf/es2014-153.pdf)