ML
-
파이썬 날코딩: XOR 문제ML 2023. 1. 21. 23:13
논리 연산으로.. def AND(x1, x2): return x1 and x2 def NAND(x1, x2): return not (x1 and x2) def OR(x1, x2): return x1 or x2 def XOR(x1, x2): return AND(NAND(x1, x2), OR(x1, x2)) for each in ((False, False), (True, False), (False, True), (True, True)): print(each, XOR(*each)) 가중치와 바이어스를 이용해.. def MLP(x1, x2, w, b): if w * x1 + w * x2 + b > 0: return 1 return 0 def AND(x1, x2): return MLP(x1, x2, 1, -1) ..
-
파이썬 날코딩: 경사하강법(gradient descent), 다중 선형 회귀ML 2023. 1. 21. 22:01
경사하강법은 가설 함수의 기울기(가중치)와 절편(편향)을 찾는 중 하나. 이를 옵티마이저라고 한다. 순수 파이썬으로.. x1 = [2, 4, 6, 8] x2 = [0, 4, 2, 3] y = [81, 93, 91, 97] a1 = a2 = b = 0 lr = 0.01 epochs = 2001 for i in range(epochs): pred_y = [a1 * each_x1 + a2 * each_x2 + b for each_x1, each_x2 in zip(x1, x2)] error = [each_y - each_pred for each_y, each_pred in zip(y, pred_y)] a1_diff = 2 / len(x1) * sum(-each_x1 * each_error for each_x1,..
-
파이썬 날코딩: 경사하강법(gradient descent), 선형 회귀ML 2023. 1. 21. 21:43
경사하강법은 가설 함수의 기울기(가중치)와 절편(편향)을 찾는 중 하나. 이를 옵티마이저라고 한다. 단순 선형 회귀 순수 파이썬으로.. x = (2, 4, 6, 8) y = (81, 93, 91, 97) a = b = 0 lr = 0.03 epochs = 2001 for i in range(epochs): pred_y = [a * each_x + b for each_x in x] error = [each_y - each_pred_y for each_y, each_pred_y in zip(y, pred_y)] a_diff = 2 / len(x) * sum(-each_x * each_error for each_x, each_error in zip(x, error)) b_diff = 2 / len(x) * s..
-
파이썬 날코딩: 평균제곱오차(mean square error: MSE)ML 2023. 1. 21. 21:23
모두의 딥러닝을 읽고 있습니다. 책의 내용을 numpy를 쓰지 않고 코딩해 보았습니다. x = (2, 4, 6, 8) y = (81, 93, 91, 97) fake_a = 3 fake_b = 76 pred_y = [fake_a * each_x + fake_b for each_x in x] for each_x, each_y, each_pred in zip(x, y, pred_y): print(f'공부시간 {each_x}, 실제점수 {each_y}, 예측점수 {each_pred}') mse = 1 / len(y) * sum((each_y - each_pred) ** 2 for each_y, each_pred in zip(y, pred_y)) print(mse) 넘파이로... import numpy as np..
-
파이썬 날코딩: 최소제곱법(method of least squares)ML 2023. 1. 21. 20:38
모두의 딥러닝을 읽고 있습니다. 책의 내용을 numpy를 쓰지 않고 코딩해 보았습니다. # 최소제곱법 x = [2, 4, 6, 8] y = [81, 93, 91, 97] mean_x = sum(x) / len(x) mean_y = sum(y) / len(y) print(f'x의 평균: {mean_x}') print(f'y의 평균: {mean_y}') dividend = sum((each_x - mean_x) * (each_y - mean_y) for each_x, each_y in zip(x, y)) divisor = sum((each_x - mean_x) ** 2 for each_x in x) print(f'분자: {dividend}') print(f'분모: {divisor}') a = dividend..
-
선형회귀(linear regression)ML 2022. 7. 14. 17:55
단순(simple) 선형회귀(linear regression)는 y = ax + b (일차함수) 다항(polynomial) 선형회귀는 y = a * x ^ 3 + b * x ^ 2 + c * x + d (다항식) 다중(multi) 선형회귀는 y = a * x1 ^ 3 + b * x2 ^ 2 + c * x3 + d 단순선형회귀 넘파이로 단순선형회귀 import numpy as np import matplotlib.pyplot as plt budget = np.array([5, 10, 17, 27, 35, 40, 42, 49, 54, 60]) revenue = np.array([2.6, 19., 23.8, 26.9, 41.1, 58.3, 40.3, 58.7, 73.1, 69.7]) m = np.polyfit..
-
로지스틱 회귀ML 2022. 7. 14. 14:29
시험 공부 시간, 시험 합격 여부 hours = [ 0.5, 0.75, 1., 1.25, 1.5, 1.75, 1.75, 2., 2.25, 2.5, 2.75, 3., 3.25, 3.5, 4., 4.25, 4.5, 4.75, 5., 5.5 ] success = [0, 0, 0, 0, 0, 1, 1, 0, 1, 0, 1, 0, 1, 0, 0, 1, 1, 1, 1, 1] 이런 데이터로 선형 회귀 후 0.5 이상일 때 합격한다라고 했을 때와 로지스틱 회귀로 시그모이드 함수를 이용했을 때의 차이는 거의 없다. 만약 30시간을 학습한 친구가 합격했다면 어떻게 될까? 공부를 많이 한 친구가 합격한다는 건 충분히 합리적인 일이다. 이런 합리적인 데이터가 추가되었을 때 기존 분석이 흔들린다면 좋은 분석이라고 하기 어려울 ..