뒤로 가기
홈으로 이동
LearnFit
공유하기
YouTube, Apriori Algorithm Explained | Association Rule Mining | Finding Frequent Itemset | Edureka
최현희님의 학습노트

Apriori Algorithm Explained | Association Rule Mining | Finding Frequent Itemset | Edureka

#yt:cc=on
#apriori algorithm
#apriori algorithm explained
#finding frequent itemset
#association rule mining
#apriori algorithm example
#apriori algo
#apriori algorithm python implementation
#apriori algorithm in python
#machine learning algorithms
#apriori algorithm in data mining
#apriori algorithm in data mining example
#data mining
#data mining tools
#data mining lecture
#association rules
#apriori
#data mining python
#machine learning
#machine learning edureka
#edureka
02:14Association Rule Mining의 수학적 정의 시작
02:36A=>B는 if A then B를 의미
04:47A=>B의 지지도(Support)공식 소개
05:10A=>B의 신뢰도(Confidence)수식 정의
07:43Association Rule Mining에 사용되는 Apriori Algorithm에 대한 설명 (Apriori Algorithm에 대한 이해는 크게 요구되지 않음)
09:00 - Apriori Algorithm : Minimum Support count의 지정
13:20 - Apriori Algoritm을 적용하여 생성된 Rule의 예
14:40 - Phyton을 사용한 Apriori Algorithm의 구현
✔ 학습 완료

이 학습노트가 포함된 러닝패스예요.

최현희님의 다른 노트는 어때요?

최현희의 프로필 이미지
최현희
의 학습노트

Bayesian networks and causality by Richard Neapolitan

영상 재생 모양 아이콘
Video
⏱ 핵심 스탬프
7
03:10
Causal Relationship과 Constraint Based Approach(Bayesian Network)
07:03
Correlation & Direction
스크랩
최현희의 프로필 이미지
최현희
의 학습노트

선후관계분석

영상 재생 모양 아이콘
Video
⏱ 핵심 스탬프
4
00:05
선후관계분석은 두 Part로 나뉘어 진행됩니다. 최초 분석은 KC(Item) 간의 관계 분석을 하는 것이고, 이를 기반으로 방향성을 분석합니다. 관계분석을 위해서는 두 KC(item)간의 관계를 조건부 확률 형식으로 풀어내는 Association Rule Mining과 여러 KC(item)과의 연관관계를 고려할 때 가장 영향력이 큰 Item(KC)를 골라내는 방법으로 Random Forest Analysis의 Permutation Importance를 계산하는 과정을 도입하였습니다.
00:05
Item(KC)간의 관계가 모두 설정되면 Item(KC)간의 방향성을 설정합니다. 학습에 있어서의 방향성을 결정하는 방법은 1. 쉬운것부터 배운다. 2. 해당 Item(KC)를 제대로 Master한 그룹과 그렇지 않은 그룹간에는 점수차이가 많이 나야 한다. 라는 가정을 고려하였습니다.
👍
1
스크랩
👋 다양한 인사이트를 읽어보고 계신가요?
나만의 학습 기록을 남기고, 관리하고 싶다면!
다양한 전문가의 멤버십 전용 콘텐츠를 보고 싶다면!
나의 학습 내용을 공유하고, 수익을 올리고 싶다면!
3초 회원가입/로그인으로, 런핏의 커뮤니티에 여러분도 함께하세요.
3초 만에 가입하기