분류 전체보기 202

7주차-튜플&실전문제

튜플: 한 번 지정되면 변경이 되지 않는 불가변성 자료형(튜플=(요소1,요소2,...요소n))-> 요소를 저장은 할수 있지만 요소 변경, 추가, 삭제를 할 수 없다.-팩킹: 변수에 리스트나 튜플을 할당하는 과정-언팩킹: 리스트나 튜플의 요소를 변수 여러 개에 할당하는 것-튜플 인덱싱: 리스트 인덱싱과 동일, 끝자리 넘어가면 ERROR-> 튜플의 요소값은 변경 X -튜플 슬라이싱: []로하고 결과는 리스트와 동일-> 하나만 슬리이싱 하면 요소가 하나인 튜플-index(값): 특정 값의 인덱스 반환, 없으면 ERROR-count(값): 튜플 특정 값의 개수를 반환, 없으면 0-len(): 튜플의 전체 길이-sum(): 튜플의 모든 요소의 합-max(): 튜플 요소의 최대값-min(): 튜플 요소의 최소값 -..

3-1/Python 2024.05.12

6주차-List

-시퀸스 자료형: 순서를 가지고 연속적으로 구성된 자료형-> 공통점: 요소들이 순서를 가지고 있다/ index를 사용하여 참조/ 공통연산 가능 리스트: 순서가 지정된 요소(itme)모음을 저장하는 자료구조(리스트 이름 = [요소1,요소2,...,요소n]-> 요소에 데이터 타입 제한이 없다.(혼용도 가능) -리스트 요소(item): 요소번호로 데이터 관리/ 없는 인덱스 접근하면 ERROR-> 인덱스는 0부터 시작!/ 마지막 인덱스는 n-1!/ 음수 인덱싱도 가능-리스트 슬라이싱: 특정 범위를 정해서 추출해 내어 새로운 리스트로 만든다.(리스트 이름[시작인덱스:종료인덱스:step]): step은 생략 가능-> 종료인덱스의 요소는 포함X, 바로 앞 요소까지-> 리스트이름[시작인덱스:]: 시작인덱스부터 끝까지-..

3-1/Python 2024.05.12

5주차-반복문

-while문: 탈출 조건을 잘 확인하자!(while 조건: 반복문장) 무한루프 발생시(Ctrl+C)-보초값 사용: 데이터의 끝을 알리는데 사용하는 데이터 값, 일반적으로 절대로 등장할 수 없는 값 사용 -난수(Random Number): 무작위로 나오는 숫자-> import random/ random.randint(시작값, 끝값): 정수로 난수 발생EX) 1~10사이의 숫자 임의로 발생-for문: 반복하는 횟수를 정확히 알고 있을 때(for 변수 in 시퀸스: 반복문장) 시퀸스 자리에는 리스트나 문자열이 올 수 있다.)-for 변수 in range(횟수): 반복문장range(start=0,stop,step=1): 연속된 숫자를 생성하는 함수-> start, step은 생략 가능, stop은 반드시 지정..

3-1/Python 2024.05.12

4주차-연산자/ 조건문

-산술연산-나눗셈 연산자(/): 실수가 나온다.EX) 9/4 = 2.25-버림 나눗셈 연산자(//): 소수점 이하는 버림(몫만 출력)EX) 9//4 = 2 연산에 실수&정수 같이 사용되면? -> 실수로 계산실수에서의 사칙연산: 특이한 결과를 확인(정답에 가깝지만 오차있는 근사치)-> 정수는 정확한 숫자 그대로 이진수로 변환되어 저장실수는 무한히 표현해야 하는 상황이 생김 실수를 저장하는 국제규격에 의해 변환되어 저장(정확한 값이 아니라 근사치로 저장)-복합대입 연산자-관계 연산자-논리 연산자-if-elif-else문: 들여쓰기가 되어있어야 한다, 조건 뒤에 :이 있어야 한다.-> 들여쓰기 하지 않는다면 ERROR (같은 블록은 들여쓰기가 같아야 한다-> else 다음에 elif사용 불가 -pass문: 조..

3-1/Python 2024.05.12

3주차-변수와 자료형/ 문자열과 형변환

#input()-주석(#), 블록주석(’‘’, “”“) -들여쓰기: 파이썬에선 들여쓰기 자체가 문법 -여러줄로 나누어 코드 작성하기(”\“사용)s = “Hello”\ +“World” -변수: 값을 저장하는 공간-> 만약 변수와 값의 개수가 맞지 않으면 ERROR-> 두 변수의 값을 변경(서로 자리 바꿔줌)-문자열(string): text데이터/ 큰따옴표나 작은따옴표 이용-변수 이름 정하기숫자로 시작하지 않는다.중간에 공백을 포함할 수 없다.파이썬의 예약어와 함수이름은 사용할 수 없다.(if, else, for, while, print, global, False, True, None...)!,@,##,$,%,&등 특수 기호는 식별자로 사용할 수 없다. (Kim&&Lee(X))->식별자 스타일(1) 카멜 표..

3-1/Python 2024.05.12

2주차-컴퓨팅사고/ 표준입출력

-컴퓨팅사고: 문제를 해결하기 위해 논리적이고 창의적으로 생각하는 것.-버퍼(큰바구니): 속도 차이가 많이나는 두 장치에 끼어서 속도차이를 완화해주는 장치.-캐시: 앞으로 사용이 예상되는 것을 미리 가져다 놓은 것.-병렬처리: 작업 2개를 동시에 처리하는 기법-컴퓨팅 사고의 4가지 구성1. 추상화: 문제에서 중요하지 않은 부분은 제거 중요한 특징만으로 문제를 구성EX)지하철 노선도, 픽토그램->일반화: 추상화로 공통의 특성(특징)을 추려 내어 만든 개념 EX)피보나치 수열 2. 분해: 추상화된 문제를 해결하기 쉬운 작은 단위로 나누는 과정->문제 분해: 복잡한 문제를 풀기 쉬운 간단한 문제로 나누는 것분해 정복: 문제를 작은 문제로 분해하여 이를 해결하고, 해결된 작은 문제를 결합하여 큰 문제를 해결하는..

3-1/Python 2024.05.12

10주차-AdaBoost & GBM

Boosting: AdaBoostAdaBoost idea- strong model VS weak model무작위 추측보다 성능이 약간 더 나은 Weak model을 임의로 정확한 Strong model로 향상 - 각 라운드마다 새로운 모델을 훈련하여 순차적으로(병렬적X) 모델을 훈련- 각 라운드가 끝나면 잘못 분류된 예제가 식별되고 새 훈련세트에서 강도가 증가되어 다음 라운드로 피드백된다.- 이전 모델에서 발생한 오류는 후속 모델에서 보완 가능=> 병렬처리가 X (동시에 진행 X) EX) Stump Tree: 노드 하나에 두개의 리프를 지닌 트리 => 하나의 질문으로 데이터를 분류(weak model) EX)1. Round 1, First Stump Tree틀린 데이터를 강조 2. Round 2, Sec..

3-1/Data Mining 2024.05.12

9주차-ML Strategy

Bayes optimal error모델의 이론상 가능한 최저의 오차값. overfitting이 되지 않는 이상 이 값을 뛰어 넘을 수 없다.이론적으로 가능한 최고의 정확도 값알고리즘의 성능(보라색 선)은 시간이 흐르더라도 bayes optimal error에는 도달할 수 없다. Q) human level performance에 인접하면 성능이 떨어지는 이유는?A) 1. human level perfermance와 bayes optimal error의 차이가 크게 안나는 경우    2. human level perfermance가 나오지 않을때 사용하는 성능향상 기법을 쓸 수 없기 때문 avoidable bias: bayes error와 training error간의 오차(error)차이variance: ..

3-1/Deep Learning 2024.05.11

7주차-Convolutional Neural Networks

Convolution Neural NetworksVertical(세로) edgePadding: 가장자리 정보는 덜 이용되고, 가운데 정보는 많이 사용이미지에 경계선을 덧대는 방법-Valid: padding을 진행하지 않음(p=0) (n-f+1) X (n-f+1) -same: padding을 진행(n+2p-f+1) X (n+2p-f+1)p=f-1/2​Strided(보폭) convolution: 종과 횡으로 이동하는 거리-Max/Average pooling-> 신경망이 깊어질수록 nh,nw는 줄어들지만, nc는 커진다.=> max pooling layer에는 parameter가 없다.convolution layer는 parameter가 상대적으로 적고, FC layer가 많다.activation size는 ..

3-1/Deep Learning 2024.05.11

6주차-Hyperparameters and Batch Norm

Hyper parameters중요도 순: alpha(학습률) > beta β, hidden units, mini-batch size > layer, learning rate decay*Adam Optimization의 하이퍼 파라미터인 beta_1, beta_2, epsilonϵ은 값을 변경할 필요 없이, 대부분 기본값을 사용하기 때문에 수치를 변경할 필요가 적다. 어떤 하이퍼 파라미터가 더 중요한지 미리 알아내기 어렵기 때문에, 격자판 형식(grid)으로 샘플링하는 것보다는 무작위로(random) 샘플링하는 방법이 더 많은 하이퍼 파라미터 값을 탐색, 더 광범위하게 학습을 진행 -Coarse to find: 다음 공간에 대해 밀도를 높여서 샘플링 진행Exponentially weighted averag..

3-1/Deep Learning 2024.05.11