분류 전체보기 202

10주차-Deep CNN models

LeNet-5-해당 신경망은 요즘에 비하면 상대적으로 적은 변수를 가진다. - sigmoid, tanh O/ ReLu X- padding X- 60k parameters=> 높이(nh), 너비(nw)는 감소/ 채널(nc)은 증가 AlexNet- LeNet에 비해서 굉장히 많은 변수를 가진다. - ReLu를 활성화 함수로 사용- padding O (same)- 60M parameters- multipul GPU를 사용, Local response normalization VGG-16- AlexNet의 복잡한 구조에 비해 VGG Net은 더 간결한 구조 - 모든 합성곱 연산은 3X3 필터, padding은 2, stride는 1, 2X2 max pooling- ~138M parameters (네트워크 크기가..

3-1/Deep Learning 2024.05.15

SHAP value

Shapley value에 대해 알기위해서는 Game Thoery에 대해 먼저 알아야한다. Game Thoery: 여러 주체가 서로 영향을 미치는 상황에서 서로가 어떤 의사결정이나 행동을 하는지에 대해 이론화 한것. Shapley Value: Game Theory를 바탕으로 하나의 특성에 대한 중요도를 알기 위해 여러 특성들의 조합을 구성하고 해당 특성의 유무에 따른 평균적인 변화를 통해 얻어낸 값.- 하나의 특성에 대한 중요도 -> 여러 특성들의 조합 구성 -> 해당 특성 유무에 따른 평균적인 변화- 각 feature가 얼마나 영향을 미쳤는지 수치화 가능EX)모든 아파트의 평균 예측가는 310,000만 유로라고 했을 때 위의 그림에서 각 특성들이 예측치에 얼마나 기여했을까? 결과적으로 먼저 얘기하자면 ..

6주차

Dynamic programming(동적 프로그래밍): 부분 문제의 해를 결합하여 문제해결->각 부분문제를 단 한번만 풀고 그 해를 저장​-Rod cutting(막대 자르기)2. Dynamic programming: 다시 계산하지 않고 저장Top-down-> 둘 다 Θ(n^2)/ bottom-up:이중 중첩 루프/ top-down: 크기가 0,1,...n에 대한 하위문제를 한 번만 해결, 크기가 n인 부분문제를 풀기 위해 for루프 n번 반복 ​-Matrix-Chain Multiplication​

3-1/Algorithm 2024.05.12

5주차

-Direct-access tables: 배열의 인덱스로 바로 접근하는 방식장점: 배열의 인덱스에 O(1)으로 바로 접근/ 단점: 공간을 많이 낭비​-Resolving collisions by chaining: : 각 인덱스에 할당된 것이 값이 아니라 키와 값을 가진 LinkedList(연결리스트)로 추가적인 공간을 활용하는 것-Choosing hash functions1. Division method: 간단하고 빠름, 해시테이블 크기가 결정되야 함2. Multiplication method:-Resolving collisions by open addressing: 충돌 발생시, 인접한 다른 비어있는 해시 버킷을 찾아 삽입하는 방법/테이블에 1개의 해시와 1개의 값이 매칭INSERT & SEARCH : ..

3-1/Algorithm 2024.05.12

4주차

각 입력 크기 n에 대해 하나의 트리트리에는 가능한 모든 명령어 트레이스에 따른 비교가 포함알고리즘의 실행시간 = 이동한 경로의 길이최악의 경우 실행시간 = 트리의 높이-> lower bound for decision tree: -counting sort: 시간복잡도 O(n+k) - 비교정렬 아니다배열 내의 원소 값들의 객수를 저장하는 counting array 만든다.2. counting array(c[])의 요소들에 대해서 직전 요소들 값을 더함3. 입력배열과 동일한 크기의 출력배열(b[])을 만들고 입력배열의 역순으로 채움-Radix sorting: 시간복잡도 O(dn) - 정렬할 숫자의 자리수(d)일의자리->십의자리->백의자리 순으로 정렬장점: 큰입력에 대해 빠르고 코딩 및 유지 관리가 뛰어남단점..

3-1/Algorithm 2024.05.12

2주차

-Asymptotic notationBig-O notation (점근적 상한)(asymptotic upper bound)f(n)의 복잡도는 최악의 경우라도 g(n) 보다 작거나 같다는 의미입니다. (f(n) ≤ g(n))->알고리즘 성능이 최악의 경우라도 g(n) 이상이라는 의미​ 2. BIg-Ω notation (점근적 하한)(asymptotic lower bound)f(n)의 복잡도는 최선의 경우라도 g(n) 보다 크거나 같다는 의미입니다. (f(n) ≥ g(n))->알고리즘 성능이 아무리 빨라도 g(n) 이하라는 의미3. Big-Θ notation (점근적 상한 및 하한)(asymptotic tight bound)f(n)의 복잡도가 최선의 경우나 최악의 경우라도 g(n) 범위 내에 있다는 의미입니다..

3-1/Algorithm 2024.05.12

10주차-Dictionary and Set

lambda표현식이름이 없는 함수를 만들때 사용람다 표현식에서 변수를 만들거나 할 수 없기 때문에 함수를 완전히 대체하지는 못함EX)  map함수반복 가능한 객체를 지정된 함수로 처리해주는 함수리스트 뿐 아니라 모든 반복 가능한 객체를 넣을 수 있음 lambda & map3으로 나누어 떨어지는 것들은 문자열로 출력​딕셔너리(dictionary)중괄호({ })로 묶어서 키(key)와 값(value)의 쌍으로 구성- 자료의 순서가 없으므로 순차적으로 접근X- 인덱스로 접근X/ 키(key)로 접근O- key: 변하지 않는 값을 사용/ value: 변하는 값과 변하지 않는 값 모두 사용=> key에는 튜플 O, 리스트X 항목 추가하기항목 추가 시 순서는 중요하지 않다.항목 삭제하기del2. pop(): key에..

3-1/Python 2024.05.12

9주차-Function

함수(function)특정한 작업을 수행하는 독립적인 부분장점: 코드의 중복을 막는다/ 여러번 재사용 가능/ 개발 과정이 쉬워짐​EX)함수를 선언하기 전에 먼저 호출하면 ERROR매개변수(parameter)함수가 입력 값을 사용할 때 받는 쪽 변수/ 매개변수는 여러 개 사용 가능 (함수선언 할 때)인자(argument)함수에 입력 값을 사용할 때 주는 쪽 값 (함수호출 할 때)함수 호출: 인자 값 => 매개변수반환 값(return)함수의 결과를 호출한 곳으로 반환​-매개변수 없고 반환값만 있는 함수EX)-반환 값 없이 return만 쓸 경우 함수 중간에서 바로 종료-여러개 값 반환하기=> 괄호 없이 사용해도 OK기본인자(default argument)생략되면 기본값이 자동으로 들어감함수 호출할 때 인자를..

3-1/Python 2024.05.12