분류 전체보기(532)
-
Octave 머신러닝
출력 fprintf('octave') identity matrix 5x5 정사각행렬에서 주대각선의 원소가 모두 1이고, 다른 원소는 모두 0인 행렬 을 만든다 I = eye(5); 데이터 로드 octave 에서는 주석을 쓸때 % 를 씁니다 data = load('data1.txt'); X = data(:, 1); % 전체 데이터에서 1번째 행 y = data(:, 2); % 전체 데이터에서 2번째 행 m = length(y); % 트레이닝 세트의 개수 플롯(plot) 만들기 plot(x, y, 'rx', 'MarkerSize', 10); % 데이터로 플롯(plot)을 만든다 ylabel('y'); % y 축 레이블 xlabel('x'); % x 축 레이블 선형회귀 Linear Regression with..
2021.05.18 -
5월 17일 코인 정보/ 추천 코인(업비트, 빗썸, 코인원)
시가총액 시가총액 제가 말한 친환경 코인 위주로 올랐습니다 (에이다, 리플) 네이버 페이 5000원 받아 주시면 감사합니다 **네이버페이 5천원 무료로 받으세요 1달 무료 가입입니다 m-campaign.naver.com/plusmembershipevent/?code=99AMY7%EC%95%88%ED%96%88%EC%9C%BC%EB%A9%B4%EB%B9%A8%EB%A6%AC%ED%95%B4 네이버플러스 멤버십을 추천해요! campaign.naver.com 추천코드 : 99AMY7안했으면빨리해 5월 17일 오전 9시 이후 **투자 판단은 개인의 판단에 의해 하시길 바랍니다. 다음 글은 투자 결과에 대한 어떠한 책임도 없습니다 **투자 가이드일뿐 저도 신이 아닙니다. **작성 당시현재 8% 프리미엄이 붙어있습..
2021.05.16 -
[Week 4] 코세라 머신러닝 퀴즈 답 /Coursera Machine Learning Quiz - Neural Networks: Representation | Andrew Ng 2021.05.16
-
5월 12일 코인 정보/ 추천 코인(업비트, 빗썸, 코인원)
시가총액 시가총액 5월 8일 / 5월 10일 도지가 이더리움 시총이 늘고 / 비트코인 리플이 소폭 하락 했습니다 네이버 페이 5000원 받아 주시면 감사합니다 **네이버페이 5천원 무료로 받으세요 1달 무료 가입입니다 m-campaign.naver.com/plusmembershipevent/?code=99AMY7%EC%95%88%ED%96%88%EC%9C%BC%EB%A9%B4%EB%B9%A8%EB%A6%AC%ED%95%B4 네이버플러스 멤버십을 추천해요! campaign.naver.com 추천코드 : 99AMY7안했으면빨리해 5월 10일 오전 9시 이후 **투자 판단은 개인의 판단에 의해 하시길 바랍니다. 다음 글은 투자 결과에 대한 어떠한 책임도 없습니다 **투자 가이드일뿐 저도 신이 아닙니다. **작..
2021.05.11 -
5월 11일 코인 정보/ 추천 코인(업비트, 빗썸, 코인원) 현황
네이버 페이 5000원 받아 주시면 감사합니다 **네이버페이 5천원 무료로 받으세요 1달 무료 가입입니다 m-campaign.naver.com/plusmembershipevent/?code=99AMY7%EC%95%88%ED%96%88%EC%9C%BC%EB%A9%B4%EB%B9%A8%EB%A6%AC%ED%95%B4 네이버플러스 멤버십을 추천해요! campaign.naver.com 추천코드 : 99AMY7안했으면빨리해 뉴스/시황 코인베이스 보면 10% 가량 하락입니다. --------- 분할매수 해주세요 --------- 프리미엄 20% 까지는 매수 해도 될 것 같습니다 --------- 프리미엄이 11% 때입니다 --------- 프리미엄은 줄어들지 않았습니다 --------- 코인시장 전체 시총은 5% ..
2021.05.11 -
[Week 3] 코세라 머신러닝 퀴즈 답 /Coursera Machine Learning Quiz - Regularization | Andrew Ng
1. Introducing regularization to the model always results in equal or better performance on the training set. underfit 될수 있다. -> 결과가 안좋아진다. 2 .Adding many new features to the model helps prevent overfitting on the training set. overfitting 될 수 있다. 3. Introducing regularization to the model always results in equal or better performance on examples not in the training set. regularization 이 과다하면 트레..
2021.05.07