전체 글
-
Do You See What I See? A Qalitative Study Eliciting High-Level Visualization ComprehensionHCI 2024. 8. 17. 21:54
결론 A Qalitative Study Eliciting High-Level Visualization Comprehension시각화의 목표 = 고차원적 분석, 커뮤니케이션 목표 달성이러한 목표는 사람들이 데이터에서 복잡하고, 상호 연결된 패턴을 자연스럽게 추출하도록 요구하지만 기존 연구는 단순 통계량 추정과 같은 저차원적 작업에 초점이 맞춰져 있음사람들이 자연스럽게 보게되는 고차원적 패턴은 디자인 의도와 맞지 않을 수 있음고차원적 이해를 고려한 시각화는 단순히 데이터를 보여주는 것(저차원) 에서 더 나아가, 사용자가 데이터를 통해 의미 있는 통찰(고차원)을 얻을 수 있도록 돕는 것을 목표로 해야함.사용자의 관점에서 시각화를 설계데이터를 맥락화복잡한 패턴을 명확하게 전달하는 방법을 고려해야함 Related..
-
"Help Me Help the AI": Understanding How Explainability Can Support Human-AI InteractionHCI 2024. 8. 17. 21:33
IntroductionAI system은 여러 곳에서 사용되고 있음Face ID, 자율주행 차, 의학 이미지 분석AI system을 더 잘 이해하는 것이 점점 더 중요해지고 있음.스마트폰 유저는 빠른 잠금 해제를 위해 얼굴을 어느 위치에 위치시켜야 하는지 이해하고 싶어함researcher는 어떠한 특수한 결정이 차 사고를 일으키는지 알고 싶어함radiologist는 특정한 진단을 내릴때 이미지의 어떤 부분을 보는지 알고 싶어함기존의 explainable AI(XAI) 연구는 사람들의 이해를 돕기 위해 AI system에 대한 투명성을 제공하고자 했지만, end-user의 관점에서 이루어지지는 않았음Vision 분야를 보면 XAI 방법론들은 실제 사용자의 필요성 보다는, researcher가 할 수 있는 ..
-
LoRA: Low-Rank Adaptation of Large Language ModelsMachine Learning/Model 2024. 1. 20. 20:09
"LoRA: Low-Rank Adaptation of Large Language Models" 논문을 한국어로 정리한 포스트입니다. LoRA: Low-Rank Adaptation of Large Language Models Edward Hu, Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang, Weizhu Chen Introduction Terminologies $d_{model}$: Transformer 레이어의 입력 및 출력 차원 크기 $W_q$, $W_k$, $W_v$, $W_o$: self-attention 모듈에서 query, key, value, output projection 행렬 $W$ 또는 $W_0..
-
Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-TuningMachine Learning/Model 2024. 1. 20. 19:42
* [ACL 2021] "INTRINSIC DIMENSIONALITY EXPLAINS THE EFFECTIVENESS OF LANGUAGE MODEL FINE-TUNING" 논문을 한국어로 번역&정리한 포스트입니다. Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-Tuning (2021) Armen Aghajanyan, Luke Zettlemoyer, Sonal Gupta [ 논문 ] Intro LoRA : Low-Rank Adaptation of LargeLanguageModels Pre-trained laguage models & Fine tuning PLM provide the defacto initializati..
-
CrossEntropyLoss vs BCELossMachine Learning/ETC 2022. 11. 1. 23:00
1. Difference in PurposeCrossEntropyLoss는 일반적으로 multi-class classification을 위해 사용되며, binary classifacation도 가능함.BCE(Binary Cross Entropy)는 binary classification에 사용됨.그렇다면 모든 경우에 CrossEntrophyLoss 를 사용하면 안되는걸까? 답은 No (3. 참조) 2. Diffrence in detailed implementationCrossEntropyLoss 가 binary classification으로 사용될때, 2개의 output features을 필요로 한다.Logits=[-2.34, 3.45], Argmax(logits) -> class 1BCELoss가 bi..
-
[KataGo 논문 Review] Accelerating Self-Play in GoMachine Learning/Reinforcement Learning 2022. 4. 28. 00:46
"Accelerating Self-Play in Go" 논문을 한국어로 정리한 포스트입니다. Accelerating Self-Play Learning in Go (2020) a.k.a. KataGo David J. Wu, Jane Street Group. [ 논문 ] [ code ] Abstract AlphaZero의 학습과정과 구조에 몇 가지 향상된 기법을 적용함으로써, Self-play learning을 통한 바둑 AI의 학습 속도를 향상 시켰다. 비교할만한 다른 방법들에 비해 50x 절감된 계산량을 달성하였다. AlphaZero와 그 복제 알고리즘인 ELF OpenGo와 Leela Zero처럼, KataGo는 오직 뉴럴 네트워크에 기반한 몬테 카를로 트리 탐색을 통한 자체 대결(neural-net-..
-
Who am ILife 2022. 2. 20. 19:28
김승현 ( Kim Seunghyun )E-mail : kim95175@gmail.comGithub : github.com/kim95175 kim95175 - Overviewkim95175 has 26 repositories available. Follow their code on GitHub.github.comLinkedin : https://www.linkedin.com/in/kim95175/성균관대학교 소프트웨어학과 공학사 (2014. 03. 01 ~ 2020. 08. 27 ) 성균관대학교 인공지능학과 석사과정 ( 2020. 08. 31 ~ 2022. 08.31 )강화학습 실습 조교2020. 8. SK Innovation Adv.CDS 과정 강화학습 실습 조교2021. 8. Samsung SDS ai..
-
[Review] A ConvNet for the 2020sMachine Learning/Computer Vision 2022. 1. 31. 18:30
* [ArXiv 2022] "A Convnet for the 2020s" 논문을 한국어로 번역&정리한 포스트입니다. A ConvNet for the 2020s (2022) Zhuang Liu, Hanzi Mao Chao-Yuan Wu, Chrsistoph Feichtenhofer, Trevor Darrell, Saining Xie [ 논문 ] [ Code ] Abstract visual recognition의 2020년은 ViT와 함께 시작되어 빠르게 기존의 state-of-the-art였던 ConvNet 기반 모델들을 뛰어넘었습니다. 하지만 ViT는 일반적인 컴퓨터 비전 태스크에 적용하기 힘들다는 어려움에 직면하였는데, 계층 트랜스포머 ( Swin Transformers) 는 ConvNet의 prior..