【AI 자막】 머신 러닝 : Python에서의 자연어 처리 마스터하기! (V2)

자연어 처리 (NLP) : Python에서 Markov 모델, NLTK, 인공 지능(AI), 딥 러닝, 머신 러닝 및 데이터 과학 사용하기

Ratings 4.80 / 5.00
【AI 자막】 머신 러닝 : Python에서의 자연어 처리 마스터하기! (V2)

What You Will Learn!

  • CountVectorizer, TF-IDF, word2vec 및 GloVe를 사용하여 텍스트를 벡터로 변환하는 방법
  • 문서 retrieval 시스템 / 검색 엔진 / 유사도 검색 / 벡터 유사도 구현 방법
  • 확률 모델, 언어 모델 및 Markov 모델(Transformers, BERT 및 GPT-3의 선행 학습 요건)
  • 유전 알고리즘과 언어 모델링을 사용하여 암호 해독 알고리즘을 구현하는 방법
  • 스팸 탐지 기능을 구현하는 방법
  • 감정 분석을 구현하는 방법
  • 문서 스피너를 구현하는 방법
  • 텍스트 요약 구현 방법
  • 잠재 시맨틱 인덱싱을 구현하는 방법
  • LDA, NMF 및 SVD로 토픽 모델링을 구현하는 방법
  • 머신 러닝(나이브 베이즈, 로지스틱 회귀, PCA, SVD, 잠재 디리클레 할당)
  • 딥 러닝(ANN, CNN, RNN, LSTM, GRU) (BERT 및 GPT-3의 더 중요한 선행 학습 요건)
  • 허깅 페이스 트랜스포머(VIP 전용)
  • Python, Scikit-Learn, Tensorflow 등에 NLP에 사용하는 방법
  • 텍스트 전처리, 토큰화, 스톱워드, 표제어 추출, 어간 추출
  • 품사(POS, Parts-of-speech) 태깅 및 명명된 엔티티 인식(NER)
  • OpenAI ChatGPT, GPT-4, DALL-E, Midjourney 및 Stable Diffusion을 위한 중요한 기초사항 이해

Description

[꼭 읽어주세요] 한글 AI 자막 강의란?

  • 유데미의 한국어 [자동] AI 자막 서비스로 제공되는 강의입니다.

  • 강의에 대한 질문사항은 Lazy Programmer 강사님이 확인하실 수 있도록 Q&A 게시판에 영어로 남겨주시기 바랍니다.


OpenAI ChatGPT, GPT-4, DALL-E, 미드저니, 스테이블 디퓨전과 같은 AI 기술이 실제로 어떻게 작동하는지 궁금한 적이 있나요? 이 과정에서는 이러한 획기적인 애플리케이션의 기초를 배우게 됩니다.


안녕하세요!

【AI 자막】 머신 러닝 : Python에서의 자연어 처리 마스터하기! (V2) 강의에 오신 것을 환영합니다.


이 강의는 다음 내용을 다루는 방대한 4-in-1 과정입니다:

1) 벡터 모델과 텍스트 전처리 방법

2) 확률 모델과 Markov 모델

3) 머신 러닝 메소드

4) 딥러닝 및 신경망 메소드


벡터 모델과 텍스트 전처리 방법을 다루는 1부에서는 데이터 과학과 인공 지능에서 벡터가 왜 필수적인지 알아봅니다. CountVectorizer 와 TF-IDF 등 텍스트를 벡터로 변환하는 다양한 기법에 대해 알아보고, word2vec 와 GloVe 같은 신경 임베딩 방법의 기초를 배우게 됩니다.

그런 다음 배운 내용을 다음과 같은 다양한 작업에 적용하게 됩니다:

  • 텍스트 분류

  • 문서 검색/검색 엔진

  • 텍스트 요약


이 과정에서 토큰화, 어간 추출, 표제어 추출과 같은 중요한 텍스트 전처리 단계도 배우게 됩니다.

품사 태깅 과 같은 고전적인 NLP 작업도 간략하게 소개합니다.


확률 모델과 Markov 모델을 다루는 2부에서는 지난 100년 동안 데이터 과학과 머신 러닝에서 가장 중요한 모델 중 하나인 확률 모델에 대해 알아봅니다. 이 모델은 NLP 외에도 금융, 생물 정보학, 강화 학습 등 다양한 분야에 적용되고 있습니다.

이 강의에서는 이러한 확률 모델의 다양한 활용법을 살펴봅니다:


  • 텍스트 분류기 구축하기

  • 아티클 스피닝

  • 텍스트 생성(시 생성)


중요한 것은 이러한 방법들이 BERTGPT-3 같은 최신 Transformer모델의 작동 방식을 이해하기 위한 필수 전제 조건이라는 점입니다. 특히, BERT 및 GPT의 사전 교육 목표에 해당하는 두 가지 중요한 작업에 대해 알아볼 것입니다.

머신 러닝 방법을 다루는 3부에서는 다음과 같은 고전적인 NLP 작업에 대해 자세히 알아보세요:


  • 스팸 탐지

  • 감정 분석

  • 잠재 시맨틱 분석(혹은 잠재 시맨틱 인덱싱)

  • 토픽 모델링

이 섹션에서는 이론 중심이 아닌 애플리케이션 중심으로 진행되므로, 다양한 머신러닝 알고리즘의 세부 사항을 배우는 데 대부분의 시간을 할애하는 대신 위의 작업에 어떻게 적용할 수 있는지에 초점을 맞출 것입니다.

물론 무슨 일이 일어나고 있는지 이해하기 위해서는 해당 알고리즘에 대한 학습이 필요합니다. 다음 알고리즘이 사용됩니다:


  • 나이브 베이즈

  • 로지스틱 회귀

  • 주성분 분석 (PCA) / 특이값 분해 (SVD)

  • 잠재 디리클레 할당 (LDA)

이러한 알고리즘은 머신러닝/인공지능의 지엽적인 알고리즘이 아닌, NLP의 기본이 되는 알고리즘이므로 모든 NLP 과정의 필수적인 부분입니다.

딥러닝 방법을 다루는 4부에서는 NLP 작업을 해결하는 데 적용할 수 있는 최신 신경망 아키텍처에 대해 알아봅니다. 뛰어난 성능과 유연성 덕분에 신경망은 앞서 언급한 모든 작업을 해결하는 데 사용할 수 있습니다.

다음에 대해 배우게 됩니다:


  • 피드포워드 인공 신경망 (ANNs)

  • 임베딩

  • 컨볼루션 신경망 (CNNs)

  • 순환 신경망 (RNNs)

RNN에 대한 연구에는 언어 번역, 음성 인식 및 텍스트 음성 변환과 같은 어려운 작업에 Google, Amazon, Apple, Facebook 등에서 널리 사용되고 있는 LSTM 및 GRU와 같은 최신 아키텍처가 포함됩니다.

물론 BERTGPT-3 같은 최신 Transformer 는 심층 신경망의 예이므로 이 과정은 Transformer 를 이해하기 위한 필수 전제 조건입니다.


이 강의의 장점 3줄 요약:

  • 모든 코드 라인에 대한 자세한 설명 - 동의하지 않는 부분이 있으면 언제든지 이메일을 보내주세요.

  • 다른 강의처럼 키보드에 "타이핑"하느라 시간 낭비 없음 - 솔직히 말해서 처음부터 단 20분 만에 배울 만한 코드를 작성할 수 있는 사람은 아무도 없습니다.

  • 대학 수준의 수학이 두렵지 않음 - 다른 강의에서 다루지 않는 알고리즘에 대한 중요한 세부 정보를 얻을 수 있습니다.


읽어주셔서 감사드리며 강의에서 뵙기를 바랍니다!

Who Should Attend!

  • 자연어 처리(NLP)를 배우고자 하는 분
  • 인공지능, 머신러닝, 딥러닝 또는 데이터 과학에 관심이 있는 분
  • Udemy의 흔한 초보자 레벨의 강의 수준을 넘어서서 심화 내용을 학습하고 싶은 분

TAKE THIS COURSE

Tags

Subscribers

37

Lectures

158

TAKE THIS COURSE