AI 2

MobileNetV2 논문리뷰 및 직접구현

MobileNet의 등장배경 본 논문에서는 모바일 및 임베디드 비전 애플리케이션의 설계 요구 사항에 쉽게 맞출 수 있는 매우 작고 latency가 짧은 모델을 구축함. MobileNetV1 1. Depthwise Separable Convolution $D_K$는 커널 사이즈, $M$ 은 입력 채널 수, $N$은 출력 채널 수, $D_F$는 이미지 크기 1-1. Standard Convolution 기본적인 convolution의 경우 $D_K * D_K * M * N * D_F * D_F$을 통해 한 번에 모든 연산을 진행 한 번에 많은 양의 연산을 하기에 파라미터 수가 큼 1-2. Depthwise Convolution 기본적인 convolution과 다르게 채널 별로 계산을 진행하는 방법 예를들어 ..

논문리뷰 2023.07.24

LangChain&GPT4All 로컬 CPU 환경에 구현

서론 LangChain을 구현할 때 OpenAI api를 활용하여 LangChain을 구성하는 것이 가장 일반적인 구현 방법이다. 다만, 그럴 경우 사용할 때마다 api키 사용에 대한 돈을 지불해야하며 내가 소유한 데이터를 가지고 질문을 한다면 보안 문제도 발생할 수 있다. 이를 해결하기 위해 모델을 로컬 환경에 저장하여서 사용할 수 있는 ‘GPT4All’을 소개하도록 하겠다. GPT4All GPT4All 깃허브에 있는 소개말을 보면 ‘CPU에서 로컬로 실행되는 오픈 소스 어시스턴트 스타일의 대규모 언어 모델’이다. 실제로 M1 CPU환경에서 ‘orca-mini-3b.ggmlv3.q4_0’모델로 테스트 했을 때 1분내외로 작동했다. 물론 이를 OpenAi api를 활용하는 것과 비교하면 당연히 느리지만 ..

NLP 2023.07.24