본문 바로가기
반응형

분류 전체보기101

Pytorch 설치 1. MobaXterm 설치해서 원격 서버 접속 후 버전 확인 2. https://pytorch.org/get-started/previous-versions/ 에서 맞는 버전으로 설치 - 11.4는 없으니까 그 아래 버전인 11.3으로 검색 - 필자는 +cu 가 붙은걸 선호하니 그걸로 복사 후 설치. pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu113 import torch torch.cuda.is_available(), torch.cuda.device_count() 설치 끝 2024. 4. 12.
Neural network analysis of sleep stages enables efficient diagnosis of narcolepsy 제목: Neural network analysis of sleep stages enables efficient diagnosis of narcolepsy 저자: Jens B. Stephansen et al. 링크: https://www.nature.com/articles/s41467-018-07229-3 소속: Center for Sleep Science and Medicine, Stanford University, Stanford 94304 CA, USA. 인용: 178(2024.04.09 기준) 출판: Nature Communication 2018 (IF 14.92) Abstract: - Type-1 Narcolepsy (T1N)의 진단은 visual inspection of polysomnograp.. 2024. 4. 9.
논문 요약 - Expert-level sleep scoring with deep neural networks 제목: Expert-level sleep scoring with deep neural networks 저자: Siddharth Biswal, Haoqi Sun, Balaji Goparaju, M Brandon Westover, Jimeng Sun, and Matt T Bianchi 링크: https://academic.oup.com/jamia/article/25/12/1643/5185596?login=true 소속: School of Computational Science and Engineering, Georgia Institute of Technology 인용: 245(2024.04.09 기준) 출판: Journal of the American Medical Informatics Association.. 2024. 4. 9.
논문 요약 - An end-to-end framework for real-time automatic sleep stage classification 제목: An end-to-end framework for real-time automatic sleep stage classification 저자: Amiya Patanaik, Ju Lynn Ong, Joshua J Gooley, Sonia Ancoli-Israel, Michael W L Chee 링크: https://academic.oup.com/sleep/article/41/5/zsy041/4954046?login=true 소속: Centre for Cognitive Neuroscience, Neuroscience and Behavioral Disorders Program, Duke-NUS Medical 인용: 146 (2024.04.09 기준) 출판: Sleep Research Society 201.. 2024. 4. 9.
AI 학습데이터가 진짜 고갈될까? [논문리뷰] - Will we run out of data? An analysis of the limits of scaling datasets in Machine Learning. Title: Will we run out of data An analysis of the limits of scaling datasets in Machine Learning Published: ArXiV 2022 Citation number: 75 (2024.03.11 기준) Author info: Company Epoch, University of Aberdeen, MIT Computer Science et al. 인데 Epoch이라는 예측 전문 회사에서 이 논문을 출판했다고 보면 될 것 같다. 오타와 대학과의 공동 저널클럽에서 발표한 논문이며, 재미있어보이는 논문이 뭐가있을까 하다가 뉴스에서 학습 데이터가 고갈된다는 그런 내용을 봤고, 관련 내용을 찾아보다가 Google Deepmind의 친칠라 데이.. 2024. 4. 5.
Docker container에서 아나콘다 실행 및 기본 설정 Docker container 생성.docker run -it --gpus all -p 88**:8888 --name yhna_pytorch4 --shm-size 256G -v /data:/home/yhna/data -v /data2/yhna/:/home/yhna/ pytorch/pytorch:latest 실제 ex)docker run -it --gpus all -p 8818:8888 --name yhna_pytorch_runtime_v2 --shm-size 256G -v /data:/home/yhna/data -v /data2/yhna/:/home/yhna/ -v /data_AIoT6:/home/yhna/data_AIoT6/ -v /data_OL:/home/yhna/data_OL/ pytorch/* 1.. 2024. 2. 27.
[논문 정리 - ALBEF] Align before Fuse: Vision and LanguageRepresentation Learning with Momentum Distillation 이번에 정리해볼 논문은 ALBEF이다. 기존의 Multi modal이라는 분야에서 두 개의 다른 특징을 다른 입력 데이터를 다른 두 개의 모델을 사용해 최적화 하는 이 분야는, 최적화가 어렵다는 단점이 있다. 나는 수면 분야에서 이러한 Multi modality를 결합해보려고 시도하고 있는데, 최적화 문제를 마주쳤기에 간단한 방식으로 이 문제를 해결한 ALBEF를 정리하며 오랜만에 생각 정리도 하고, 교수님과의 디스커션도 준비하고, 생각 정리도 할겸 오랜만에 정리를 해보려고 한다. 논문 링크: https://arxiv.org/abs/2107.07651 제목 : [ALBEF] Align before Fuse: Vision and LanguageRepresentation Learning with Moment.. 2024. 1. 27.
[MFF 논문 정리] Improving Pixel-based MIM by Reducing Wasted Modeling Capability 논문 링크: https://arxiv.org/abs/2308.00261 제목 : Improving Pixel-based MIM by ReducingWasted Modeling Capability 저자 : Yuan Liu et al. 소속 : Shanghai AI Laboratory 학회 : ICCV2023 인용 : 3 (2023.12.14 기준) Abstract Masked Image modeling (MIM) 은 크게 2개의 그룹으로 나눌 수 있다. 1. Pixel-based - SimMIM, Masked AutoEncoder(MAE)와 같이 Raw pixel을 예측하는 방법이다. - 이 Pixel-based 방법론의 장점은 MAE를 보면 잘 알 수 있다. 1. Simple pipeline 2. Low.. 2023. 12. 18.
2023 구글 머신러닝 부트캠프 2023 4기 후기 나는 군복학을 엇학기로 하였다. 따라서 부트캠프 4기 발표가 나올 무렵인, 2023년 8월 말 대학교 졸업 예정이였다. 해외 다이렉트 박사, 혹은 그냥 해외 석사, 국내 석사, 아니면 취업? 이라는 여러가지 옵션 중, 무엇을 선택해야하나 2023년 초반부터, 5월, 6월까지 여러가지 고민을 많이 했다. 그리고 7월 해외 대학원 장학금 선발에 떨어짐과 부족하다고 느껴지는 영어 실력, 무엇보다 돈도 풍족하지 않았기에, 국내 석사 혹은 취업으로 옵션을 줄여야만 했다. 하지만, 국내 석사를 지원하기엔, "어떻게 해서든 해외로 나갈거야"란 어리석은 마음가짐으로 컨택을 아무것도 하지 않았기에, 컨택도 하고 학부생 시절 제대로 마무리 하지 못한 연구를 마무리하겠다는 마인드로, 동기들과 똑같이 졸업하는 2024년 2월.. 2023. 12. 11.
7-4 PREVIEW OF THE CHANNEL CODING THEOREM - Channel coding theorm에 대해 구체적으로 알아보기 전에, 가볍게 맛보기로 정리를 하자면 다음과 같다. Xn을 입력 비트, Yn이 출력 비트로 더 큰 범위에서 생각할 수 있다. - 가장 먼저 Xn을 늘리면 우리의 Capacity가 증가한다. 왜냐하면, 더욱 보낼 수 있는 양이 증가하기 때문이다. - 하지만, 이 Yn이 늘어나게 되면, overlapping이 되는 부분이 증가하여 Error가 증가한다. - 이 Yn에서 원이 겹치게 되면 이런 부분이 Noise가 되는 것이다. - 따라서 우리는 2^(n x H(Y)) / 2^(n x H(Y|X)) 의 값을 최대화 시키는 것이 목표다. - 그리고 이 수식은 2^(n - (H(Y) - H(Y|X))) = 2^(n - I(X;Y)) 가 된다. -.. 2023. 12. 3.
반응형