AI와 데이터의 모든 것

  • 홈
  • 태그
  • 방명록

softmax 1

Activation Function 활성화 함수 (Sigmoid, Softmax, tanh, ReLU) 사용 이유, 그래프, 성질

* 공부용으로 자료 조사한 것들을 토대로 정리한 내용입니다. 틀린 내용이 있다면 댓글 부탁드립니다. 활성화 함수란, 비선형 신경망 모델을 만들기 위해 각 뉴런의 Linear Function(Weighted Sum, Affine Transformation,,,)의 결과값에 적용해 주는 함수이다. 하나를 예로 들면, 딥러닝을 위한 신경망 모델(neural networks)의 각 층(Layer)에서 각 뉴런(Neuron)에 Input Data(x)가 입력되면 Affine function(f(x) = z = wx + b), 활성화함수(g(wx + b))를 통해 Output Data가 출력값으로 나온다. g(f(x))라는 합성함수 형태가 하나의 뉴런 안에서 수행되는 연산이다. 이 출력값을 다음 레이어의 입력값으로..

AI/Fundamental 2023.08.24
이전
1
다음
더보기
프로필사진

주니어입니다. 겸손하게 불도저처럼 나아가겠습니다☄️

  • 분류 전체보기 (189)
    • AI (0)
      • Fundamental (15)
      • Computer Vision (7)
      • Time Series (4)
      • Paper Review (1)
      • lectures (5)
    • Mathematics (33)
      • Linear Algebra (31)
      • Calculus (1)
    • Programming (95)
      • basic (2)
      • python (38)
      • python-numpy (2)
      • python-visualization (2)
      • python-deep learning (9)
      • python-computer vision (8)
      • python-nlp (3)
      • anaconda (5)
      • docker (1)
      • linux (13)
      • swift | mac (3)
      • matlab (1)
      • errors (8)
    • English (23)
      • monthly (15)
      • expressions (8)
    • Thought (5)
    • Holiday (1)

Tag

딥러닝, 인공지능, tensor, 신경망모델, 리눅스, 선형대수, TensorFlow, Python, 텐서플로우, 데이터, 부스트코스, 벡터, 칸아카데미, 머신러닝, linearalgebra, 모두를위한선형대수학, 선형대수학, ML, 파이썬, Linux,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바