일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 인생책
- 추천프로젝트
- 리뷰
- 멋사 AI
- 멋쟁이사자처럼 k 디지털
- k 디지털 후기
- 멋사 k 디지털
- 인터뷰
- 멋사 전액국비지원교육
- 인생책짧은글
- AI 코딩
- 가브리엘마르케스
- til
- 멋사 AI 교육
- 이렇게 그녀를 잃었다
- 멋쟁이사자처럼 k-digital
- 영화AI추천
- 문학동네
- 영화추천시스템
- 유니오르
- 홍명희 임꺽정
- 멋쟁이사자처럼
- 멋사 국비지원과정
- 비전공자 코딩
- k 디지털
- 비전공자 코딩교육
- 비전공자 멋쟁이사자처럼
- 민음사
- 멋쟁이사자처럼 전액국비지원
- AI 국비지원
- Today
- Total
목록나는 코딩도 한다 (60)
글쟁이, 코딩한다

0. Simpson Character Classifier 2일차 1. 같은 구조, 다른 모델? 헐겁게 짜여진 모델 구조로는 돌릴 때마다 변동이 크다? => 나는 테스트 데이터 대상 정답 평균(accuracy)이 99.45% 나온 반면 다른 분들은 90% ~ 로 다르게 나왔다. 초기화가 다르게 잡혀서 그랬을까? 운일까? 일단 다음 차례로 넘어간다. 2. 시각화 시각화를 위해 generator에서 이미지 파일, class_name 등을 찾느라고 오랜 시간을 썼다. => 처음에는 모델이 예측한 결과값과 generator를 비교하려 했으나 generator가 매번 랜덤으로 섞이는 바람에 이건 의미가 없어졌다. 애초에 흐르는 물과 고인 물을 비교하려 했으니 접근방법부터가 문제. 해서 찾아놓은 모델을 곧바로 예측하..

0. 프로젝트 3일차 : 두번째 주제 Simpson Character Classifier 지금까지 첫날 : Mushroom Dataset으로 버섯 독성 판단 모델 만들기 결정, 간단한 전처리와 데이터 분석 및 시각화 둘째날 : 결측치 채울 ML, 독성 판단할 DL 학습. 깔끔한 데이터 탓에 너무 높은 모델 성능(99.98% 수준) =>모델 예측값을 적용할 다른 방안들을 생각해내지 못했다. 이에 다른 데이터를 활용하기로 합의 새로운 데이터 접근 방향 1. 회귀분석 활용하기 ; 다중클래스 분류 문제 ML, 이진 분류 문제 DL, ML 써봤으니 회귀 문제 하나 하면 균형이 맞을 것 같은 기분 1) 카드 데이터 2) 한국 소득 데이터 활용 (둘 다 kaggle) 2. CNN 활용하기 1) 심슨 데이터 2) fl..
0. mushroom 이전 시간 : mushroom dataset 전처리와 시각화 : 식용 버섯 판단 DL 모델 구축을 위한 전처리 단계 => 결측치를 가진 stalk-root 열에 ML 모델 예측값을 밀어넣자. 1. stalk-root 채우기 용 ML모델 1-데이터 분할 ; stalk-root 값이 채워진 학습용 데이터와 값이 ? 상태인 예측용 데이터를 분할 2-학습용 데이터로 다중 클래스 분류 ML 모델 만들기 1) y data(stalk-root열), x data(y data를 뺀 모든 열) 정비 2) encoding 과정 1- labelencoder ; str을 int로 변환 과정 2- onehotencoder : 열 추가 문제; ML 모델에서 y data는 onehotencoding이 의미가 없..
0. 세번째 세미프로젝트, 네번째 프로젝트를 시작했다. 도서관 데이터 기반 추천 서비스, 타이타닉 생존자 예측 ML 모델 제작, 멜론 스테디셀러 차트 가사 기반 추천 서비스에 이어 버섯 맞추기 DL 모델 제작에 들어간다. 머쉬룸. 1. 데이터 선정 버섯 데이터 mushroom dataset -데이터의 매끈함 -적당한 데이터양(8000+)과 feature(23), 정답 데이터 다수 존재. -수집과 전처리 과정의 수고를 줄여줌 : 결측치는 feature 하나에만. -참고용 레퍼런스가 여럿 있다 : 모델 성능 확인과 발전에 용이 www.kaggle.com/uciml/mushroom-classification Mushroom Classification Safe to eat or deadly poison? www..
0. 오늘은 기록하기 위한 공부가 아닌, 조금 더 알기 위한 공부 1. 오늘 한 일 + 다시 찾아가볼 페이지 텍스트 데이터 벡터화 c11.kr/lpit Natural Language Processing: Text Data Vectorization Features in machine learning is basically numerical attributes from which anyone can perform some mathematical operation such as matrix… medium.com 딥러닝 예제 실습(iris data-set 기반(어울리지는 않았지만) 코드 복습) www.tensorflow.org/tutorials?hl=ko TensorFlow Core ML 초보자 및 전문가를 위..

0. 예! 금요일! Auto ML 모델 제작을 돕는 프로그램들. 기본적으로 로컬 환경에서는 사용이 어렵다. 구글 콜랩 환경에서 실습했다. 1) Pycaret(파이캐럿) traditional ML 모델 만들기를 도와주는 라이브러리 알아두면 도움이 될 명령어들 setup : 모델 자동 생성을 위한 준비 #자동 전처리 #라벨 데이터 onehot value 인코딩 create_model( ) : 모델 자동 생성 ; 일정 트레이닝 tune_model( ) : 모델을 일정 기준(accuracy)을 바탕으로 튜닝 compare_model( ) : 일정 기준(accuracy)을 바탕으로 모델들을 돌려보고 상위 결과 모델들을 돌려준다 evaluate_model( ) : 모델을 불러 성능, hyper-params 값 등을..

0. 딥러닝 실습 코드. TensorFlow 1. TensorFlow 2. 두 버전을 다 배웠으나 기억에 남길만한 버전 2. 코드들을 남긴다. 주피터 노트북 캡처본에 바탕. 코드는 강사님이 알려준 대로. 하나. 데이터셋 불러오기 & 전처리 메인 dataset은 mnist, training data는 60000행, 784열 둘. 주요 레이어 생성 layer 수, unit(층별 퍼셉트론) 수, initializer초기화, activation function활성화 함수, batchnorm, dropout 등을 설정한다. 예시는 히든레이어 2개를 가진 멀티클래스 분류 문제다. 셋. 모델 학습 compile 단계 : optimizer최적화 프로그램, loss function, metrics평가 지표 등을 선택 학..

0. 딥딥 딥러닝 최적화 하나. Weight Initialization. Gradient Descent 적용을 위한 첫 단계. parameterθ 초기화 경사를 데굴데굴 굴러 가장 깊은 골짜기로. 초기화 이후 시작점을 어디로 잡을 수 있을까? 시작점은 많은 것을 바꾼다. 아래 초기화 기법들은 선형결합 값이 너무 커지거나 작아지지 않도록 초기 parameterθ를 잡아준다. 선형결합 값이 극단적이면 초기화 지점이 산으로 갈 확률이 높다. #너무 터무니없는 곳을 잡으면 고생 #함정에 빠지거나 시간이 너무 오래 1) Xavier Initialization 자비에 초기화 표준편차가 (1 / 앞선 레이어 퍼셉트론의 숫자에 루트를 씌운 값)인 정규분포를 따른다. #예로 앞선 레이어가 10000개면 θ 초기값은 1/..

0. 딱 맞춰 30일에, 딥러닝 시작한 기념으루다가 이미지도 챙겨봤다. 오늘 배운 내용을 내가 보기 좋게 정리한다. 아무것도 모르던 사람의 딥러닝 1일차라는 것을 유념하며 정확하지 않은 내용, 이해가 빈약한 내용, 틀린 내용은 꾸준히 수정하며 채워가기로 한다. 딥러닝 쉽게 보자면, 인공신경망 기반 머신러닝. 1. 딥러닝, 어떻게 잘 나가게 됐지? 딥러닝의 기본 단위 퍼셉트론은 1958년 즈음 나온 논의 여러 문제들 덕에 빛을 못 보다가 마침내 해답들이 나와 어디 내놓아도 부끄럽지 않을 핵심 기술이 됐다고 한다. 도움 준 친구들 데이터 : 저장매체, 통신매체의 발전 -> 학습시킬 데이터 수가 많아졌다 하드웨어 : 컴퓨터 하드웨어 발전 -> 연산이 빨라졌다 머신러닝 : 머신러닝 연구들의 발전 -> Gredi..
0. 멜론 장르별 스테디셀러 가사 데이터 분석 & 유사도 기반 추천 서비스 마무리. 지금까지. 프로젝트 주제. 텍스트 데이터. 데이터 분석. 유사도 기반 추천. 머신러닝 적용. 멜론 장르별 스테디셀러 가사 데이터 선정. 크롤링. 토크나이즈를 비롯한 데이터 전처리. 장르별 가사 데이터 분석. TF-IDF와 코사인 유사도를 활용한 가사 추천 시스템 적용. 가사를 입력하면 장르를 맞추는 멀티클래스 머신러닝 모델 확보. 마지막날// 결과적으로 보자면, 발표를 했고, 가사 추천 시스템은 완료했으며, 멀티클래스 머신러닝 모델은 허탕으로 돌아갔다. 개인 공부장인만큼 주요 결과는 다른 포스팅이나 깃(오늘 공부 예정)을 통해 정리하고, 개인적으로 배운 것들을 정리하는 데 써야겠다. 이번 프로젝트로 배운 점 코드 _크롤링..