Data/Data visualization

Data/Data visualization

Self attention

Q. Self attention 방법이란 Self-Attention(자기 어텐션)은 딥러닝에서 사용되는 어텐션 메커니즘의 한 종류입니다. 어텐션 메커니즘은 입력 시퀀스의 모든 요소가 출력 시퀀스의 모든 요소에 영향을 미치도록 하는 메커니즘입니다. Self-Attention은 입력 시퀀스 내에서 각 단어의 상대적인 중요도를 계산하여 출력을 생성하는 방법입니다. Self-Attention의 기본적인 아이디어는 입력 시퀀스 내의 각 단어 벡터들이 서로 어떤 관계를 가지는지 학습하는 것입니다. 이를 위해 입력 시퀀스 내의 각 단어 벡터를 Query, Key, Value로 각각 변환한 뒤, Query와 Key의 유사도에 따라 Value를 가중합하여 출력을 생성합니다. 이때 유사도를 계산하는 방법으로는 내적(dot..

Data/Data visualization

[Data visualization] "왜" 데이터 분석과 시각화를 공부하는가

어떠한 공부를 진행할 떄는 "왜"가 가장 중요하다 왜 이것을 하는가. 즉, 어떤 일을 진행할 때 결국 목적을 찾는 것이 가장 중요하기 때문이다. 현재 빅데이터에서는 이렇게 나아갈 수 있는 분야가 다양하다. 그리고 각자의 분야에서 필요한 능력은 상이하다. 그렇다면 현재 데이터 직무의 연력현황 및 수요는 어떠할까. 현재 데이터 직무 내에서는 데이터 분석가 / 과학자 데이터 개발자 의 비율로 데이터 직무 내에 인력이 부족하게 된다. 즉, 데이터 분석가 / 과학자가 앞으로 더 유망하다는 것을 현재로선 짐작 가능하다. 물론 빠르게 변화하는 세상이기에 '현재' 로서는 말이다. 그렇다면 데이터 과학(Data Scien..

dowhatiwant
'Data/Data visualization' 카테고리의 글 목록