본문 바로가기

전체 글

[E-15] OCR 들어가며¶ 실습목표 OCR의 과정을 이해합니다. 문자인식 결과의 표현방식을 이해합니다. 파이썬을 통해 OCR을 사용할 수 있습니다. 학습 목차 들어가며 기계가 읽을 수 있나요? 어떤 과정으로 읽을까요? 딥러닝 문자인식의 시작 사진 속 문자 찾아내기 - detection 사진 속 문자 읽어내기 - recognition keras-ocr 써보기 테서랙트 써보기 프로젝트 : 다양한 OCR 모델 비교하기 기계가 읽을 수 있나요?¶ 사람이 문자를 읽으려면 문자가 있다는 것을 인식하고 -> 인식한 문자를 해독하는 과정을 거친다. 기계가 문자를 읽는 과정도 동일하게, 문자의 존재를 Detection하고, 어떤 문자인지 판독하는 Recognition으로 나눌 수 있다. 어떤 과정으로 읽나요?¶ 구글 API에서는 문자 .. 더보기
[F-31] Crawling news data Intro¶학습 목표 HTML 문서의 개념에 대해서 이해한다. 태그의 형식에 대해서 이해한다. 크롤링을 위한 패키지인 BeautifulSoup4의 사용법을 이해한다. 머신 러닝 분류 방법인 나이브 베이즈 분류기의 사용법을 익힌다. 준비물 Making Directory $ mkdir -p ~/aiffel/news_crawler Installing Mecab 오늘 실습에서는 Mecab이라는 형태소 분석기를 사용합니다. 혹시 Mecab이 깔려있지 않은 환경이라면 터미널을 열고 아래의 커맨드로 Mecab을 설치해줍니다. 중간에 암호 입력이 필요할 수 있습니다. $ git clone https://github.com/SOMJANG/Mecab-ko-for-Google-Colab.git $ cd Mecab-ko-fo.. 더보기
[E-14] Recommendation 들어가며¶실습 목표 추천 시스템의 개념과 목적 이해 Implicit library를 활용하여 Matrix Factorization 기반의 추천 모델을 만들어본다. 음악 감상 기록을 활용하여 비슷한 아티스트를 찾고 아티스트를 추천해 본다. 추천 시스템에서 자주 사용되는 데이터 구조인 CSR Matrix을 익힌다 유저의 행위 데이터 중 Explicit data와 Implicit data의 차이점을 익힌다. 새로운 데이터셋으로 직접 추천 모델을 만들어 본다. 목차 추천 시스템이란 게 뭔가요? 데이터 탐색하기와 전처리 사용자의 명시적/암묵적 평가 Matrix Factorization(MF) CSR(Compressed Sparse Row) Matrix MF 모델 학습하기 비슷한 아티스트 찾기 + 유저에게 추천하기.. 더보기
06 Matrices for solving systems Matrices: Reduced Row Echelon Form 1 The matrices are just arrays of numbers that are shorthand for this system of equations. We can make a coefficient matrix! Let's see this matrix is independent or not. We will transform this matrix to Reduced Row Echelon form(RREF (A)). The variables that you associate with your pivot entries, we call these pivot variables(x1, x3). And the variables that are .. 더보기
[F-30] Multiprocessing Intro¶Learning Objectives Understanding Multitasking, parallel programming with python Make Parallel programming with concurrent.futures with python Contents Multitasking Program Profiling scale-up vs scale-out Multiprocess, Multithread Multithread Multiprocess Thread/Process Pool Example concurrent.futures module finding prime number Multitasking - What is multitasking?¶You need to know how to .. 더보기
09. CNN Architecture Intro In Lecture 9 we discuss some common architectures for convolutional neural networks. We discuss architectures which performed well in the ImageNet challenges, including AlexNet, VGGNet, GoogLeNet, and ResNet, as well as other interesting models. Keywords: AlexNet, VGGNet, GoogLeNet, ResNet, Network in Network, Wide ResNet, ResNeXT, Stochastic Depth, DenseNet, FractalNet, SqueezeNet [link] .. 더보기
07. Training Neural Networks(2) CNN Preivew Lecture 7 continues our discussion of practical issues for training neural networks. We discuss different update rules commonly used to optimize neural networks during training, as well as different strategies for regularizing large neural networks including dropout. We also discuss transfer learning and finetuning. Keywords: Optimization, momentum, Nesterov momentum, AdaGrad, RMSPro.. 더보기
06. Training Neural Networks(1) In Lecture 6 we discuss many practical issues for training modern neural networks. We discuss different activation functions, the importance of data preprocessing and weight initialization, and batch normalization; we also cover some strategies for monitoring the learning process and choosing hyperparameters. Keywords: Activation functions, data preprocessing, weight initialization, batch normal.. 더보기