본문 바로가기
반응형

Deep Learning (Computer Vision)40

[논문 정리 LLaVA-Med] Training a Large Language-and-VisionAssistant for Biomedicine in One Day LLaVA에 이어서 LLaVA-Med도 정리해야지. 제목: LLaVA-Med: Training a Large Language-and-Vision Assistant for Biomedicine in One Day 저자: Chunyuan Li et al. 인용: 136 (2024.04.19) 학회: NIPS2023 링크: https://arxiv.org/abs/2306.00890 Abstract. 1. chatboot AI의 멀티모달 격차: - 현재 대화형 AI 기술은 Bio-medical 분야에서 가능성을 보여주지만, 주로 단일 모드(텍스트 전용) context 전용 - Bio-medical image를 이해하고 대화할 수 있는 정교한 도구가 부족. 2. 대규모 데이터 세트 + GPT-4를 이용한 새로운 .. 2024. 4. 19.
[Technical report: Gemini 요약] A Family of Highly Capable Multimodal Models Google for developers 에서 진행하는 ML Reading CLUB에 참여해 다양한 구글의 ML chatboot? LLM 모델을 읽어보고 각자 리뷰하는 시간을 가졌다. 1주차에는 Gemini 논문을 읽었고 추후에 2,3주차는 Gemma, Gemini-1.5를 리뷰할 계획이다. 원래라면 한번 읽어보고 생각을 공유하는 정도에서 마무리하려고 했는데, 다른분들이 내가 생각하는 내용과 다른 부분을 매우 꼼꼼하게 생각해주셔서, 그냥 잊어버리기엔 아깝다라는 생각과, 그리고 좀만 다음은 후, 정리를 해두면 나중에 오타와 대학과의 공동 저널클럽에서 한번 다룰 수 있지 않을까 싶어서 정리해두려고 한다. 영상: https://www.youtube.com/watch?v=CiVA8PmR2Do 제목: Gemini:.. 2024. 4. 19.
[LLaVA 논문 정리] - Visual Instruction Tuning ACM Multi-media에 논문을 내고, 요즘 멀티 모달에 관심이 생기고 활용하고 싶다는 생각이 들어 여러가지를 하게 됐다. 의료 분야에서의 쓸만한 Multi-modality논문이 뭐가 있을까 보다가 적절하게 활용할만하다 생각이 드는 논문이 들어 정리까지 해보려고 한다. 확실히 정리를 하는게 도움이 되지만, 뭐랄까 너무 시간 소모가 심하달까,, 그래도 이 LLaVA는 한번 정리해두면 잘 쓸 것 같아서 정리도 해보려고 한다. 서론은 여기까지 하고, 본론으로 들어가면 Hugging Face에 꾸준하게 업데이트를 진행하고 있는 이 LLaVA이다. 사용법도 간단하니 Pre-trained model을 사용해보고 싶다면 HuggingFace를 들어가서 직접 해보는 것을 추천한다. [깃허브] [Hugging Fa.. 2024. 4. 16.
[논문 정리 - ALBEF] Align before Fuse: Vision and LanguageRepresentation Learning with Momentum Distillation 이번에 정리해볼 논문은 ALBEF이다. 기존의 Multi modal이라는 분야에서 두 개의 다른 특징을 다른 입력 데이터를 다른 두 개의 모델을 사용해 최적화 하는 이 분야는, 최적화가 어렵다는 단점이 있다. 나는 수면 분야에서 이러한 Multi modality를 결합해보려고 시도하고 있는데, 최적화 문제를 마주쳤기에 간단한 방식으로 이 문제를 해결한 ALBEF를 정리하며 오랜만에 생각 정리도 하고, 교수님과의 디스커션도 준비하고, 생각 정리도 할겸 오랜만에 정리를 해보려고 한다. 논문 링크: https://arxiv.org/abs/2107.07651 제목 : [ALBEF] Align before Fuse: Vision and LanguageRepresentation Learning with Moment.. 2024. 1. 27.
[MFF 논문 정리] Improving Pixel-based MIM by Reducing Wasted Modeling Capability 논문 링크: https://arxiv.org/abs/2308.00261 제목 : Improving Pixel-based MIM by ReducingWasted Modeling Capability 저자 : Yuan Liu et al. 소속 : Shanghai AI Laboratory 학회 : ICCV2023 인용 : 3 (2023.12.14 기준) Abstract Masked Image modeling (MIM) 은 크게 2개의 그룹으로 나눌 수 있다. 1. Pixel-based - SimMIM, Masked AutoEncoder(MAE)와 같이 Raw pixel을 예측하는 방법이다. - 이 Pixel-based 방법론의 장점은 MAE를 보면 잘 알 수 있다. 1. Simple pipeline 2. Low.. 2023. 12. 18.
[좀 깊은 MAE-CLIP 논문 분석] - Masked Autoencoding Does Not Help Natural Language Supervision at Scale 원래 Tistory에는 복습하기 좋게 논문에서 중요한 부분만 밑줄 쳐놓고, 한국어로 다시 보기 쉽게 저장하는 방식이 내 블로그 포스팅 방법이지만, 이번에 방법을 바꿔서 Medium에 간단하게 요약을 하고, Tistory에 길게 써보려 한다. 별다른 이유는 없고, 원래 한글 포스팅은 안하려고 했지만, 논문 세미나에서 좀 많이 못했기에, 다시 정리하고 넘어가려 한다. 하.. 영어 말하기도 문젠데, 준비 문제다, Medium에 글을 쓰는게 얼마나 도움이 됐는지 다시 뼈져리게 느낀다. 간단한 설명은 아래의 Medium링크에서 보면 된다. (영어인 점 양해 부탁드립니당) 논문 제목: [MAE-CLIP] - Masked Autoencoding Does Not Help Natural Language Supervisi.. 2023. 11. 13.
논문 톺아보기 [IMAGEBIND]: One Embedding Space To Bind Them All 제목 : IMAGEBIND: One Embedding Space To Bind Them All 저자 : Rohit Girdhar et al. 소속 : FAIR, Meta AI 학회 : CVPR2023 인용 : 38 (Until 2023.10.20) 링크: https://imagebind.metademolab.com/ 안녕하세요! 제가 오늘 소개할 논문은 "IMAGEBIND: One Embedding Space To Bind Them All" 라는 논문입니다. Facebook AI Research, Meta AI에서 만든 논문입니다. 이 논문은 CVPR 2023에 등재 되었습니다. 이 논문 같은 경우에는 2023년 3월에 처음으로 등장하게 되었는데요. 이 논문이 처음 나왔을 때 레딧라든지 텔레그램과 같은 .. 2023. 10. 22.
논문 정리 [DeiT III] DeiT III: Revenge of the ViT Original DeiT에 이어 DeiT III를 리뷰해보려고 한다. MMCV에 올라온 Figure를 보고 DeiT III를 읽어야겠다 다짐했는데, DeiT III를 BootMAE로 잘못 올려뒀다. (매우 화가난다) DeiT III는 실제로도 별 내용이 없기에 간단하게 리뷰해보려고 한다. DeiT에서 등장한 aggrasive한 augmentation 기법에을 바탕으로 self-supervised learning과, Supervised learning의 ImageNet 정확도가 왔다갔다 하는 상황에서, 기본적인 ViT만으로도 DeiT와 유사한 Augmentaiton, 더욱 강한 augmentation을 적용한다고 보면 될 것 같다. 저자 : Hugo Touvron 소속 : MetaAI, Sorbonne U.. 2023. 10. 3.
논문 정리 [LeViT] a Vision Transformer in ConvNet’s Clothingfor Faster Inference 저자 : Benjamin Graham 제목 : LeViT: a Vision Transformer in ConvNet’s Clothing for Faster Inference 학회 : ICCV2021 소속 : Facebook research Team 링크 : https://arxiv.org/abs/2104.01136 인용 : 305 (2023.10.02기준) Summarization of the LeViT. What is the throughput? - Throughput refers to the number of images processed per second. Why it called LeViT? - We adopted a pyramid structure using pooling layers, aki.. 2023. 10. 2.
Vision 분야에 적용된 Self-Attention 알아보기 [Non-local Neural Networks, SENet, On the Relationship between Self-Attention and Convolutional Layers] 1. Non-local Neural Networks 제목 : Non-local Neural Networks 저자 : Xiaolong Wang , Kamming He et al 소속 : Carnegie Mellon University & Facebook AI Research 학회 : CVPR2018 인용 : 9010 (2023.09.24 기준) 링크 : https://arxiv.org/abs/1711.07971v3 Abstract 요약: Video Processing에서 전통적인 CNN + RNN 조합 대신 "non-local block"을 제시하여 긴 범위의 의존성을 포착 가능. Non-local block은 모든 위치의 특징(Time, Height, Weight)의 가중치 합으로 계산. 이 방법은 다양.. 2023. 9. 24.
반응형