전체 글108 [임베디드] 2장 라즈베리파이 소개 1. 라즈베리파이 개발: 2006년 영국 에반업튼 박사가 개발. 목적: 영국 라즈베리 파이 재단이 학교, 개발도상국에게 컴퓨터 보급하기 위해 만든 싱글보드 컴퓨터. 특징(3): 저렴한 가격, 신용카드 크기, 컴퓨터로 동작할 정도로 충분한 성능 2. 라즈베리파이 VS 아두이노 - 아두이노: 펌웨어를 구동하는 임베디드 보드 - 라즈베리파이: 운영체제(리눅스)를 구동하는 컴퓨터. (ARM CPU) 3. 라즈베리 파이 특징(10) - Model 4B 기준. 프로세서: .5GHz로 클록된 네 개의 ARM Cortex-A72 코어가 있는 프로세서를 사용. 메모리: DRAM은 2, 4, 8GB. Micro-SD카드는 클래스 4이상 권장. 전원: 5V DC 전원을 USB 플러그로 입력. 최대 2.5A 전류 입력 비디오.. 2023. 10. 20. [임베디드] 1장 아두이노보드 실습 (2) 실습5. 모터 제어 - 모터 종류(6): AC모터, DC모터, BLDC모터, Servo모터, Stepping 모터, Geared 모터 - DC모터 사용. - 트랜지스터: 전류 흐름을 스위칭(디지털)하거나 증폭(아날로그) 스위칭 - off: 베이스(B)에 0V(low)가 주어지면 에미터(E)에서 콜렉터(C)로의 전류 흐름이 멈춤. 스위칭 - on: 베이스에 5V(high)가 주어지면 에미터에서 콜렉터로의 전류가 공급됨. 증폭: 베이스에서 나오는 작은 전압이 콜렉터로 갈 때 증폭되어 출력됨. Atmega 128 마이크로 컨트롤러와, NPN 트랜지스터를 사용. LED 4개 구동. PC0에 HIGH가 출력되면 Q1의 스위칭 동작은 ON -> LED 켜짐 PC0에 LOW가 출력되면 Q1의 스위칭 동작은 OFF->.. 2023. 10. 20. [임베디드] 1장 아두이노보드 실습 (1) 실습1. Bread Board 사용 LED의 다리가 긴 쪽이 (+), 짧은 쪽이 (-) 실습2. LED 깜빡이기 - 함수 함수 pinMode(pin, Input or Output): 해당핀을 input으로 사용할 건지, ouput으로 사용할 건지. 함수 digitalRead(pin): 입력 핀의 현재 상태를 읽음.(High or Low) 함수 digitalWrite(pin, High or Low): 출력 핀의 상태를 설정함. 함수 delay(ms): 행동을 멈춤. 함수 analogWrite(pin, val): PWM기법 사용. val은 0~255사이. 출력 전압 = 5V * (val/255) (PWM: Pulse Width Modulation으로 밝기 변경 기법. 9번 핀에서 사용 가능.) - 전자 회로.. 2023. 10. 20. [인공지능] SP04. Deep neural networks 0. Deep neural networks : 히든 레이어 수가 1개 이상이다. shallow network보다 선형 공간이 더 많다. 4-1. Composing neural networks 1. 1차원 입출력 신경망을 합성하는 경우 : 히든 레이어 2개. 각각의 히든 레이어는 3개의 노드를 가짐. 입출력은 하나 ㄹa) 첫번째 네트워크의 출력 y는 두번째 네트워크의 입력임. b) 첫번째 네트워크에서는 입력 x를 y로 매핑함. 세 개의 선형 영역으로 이루어짐. 여러 입력 x(회색 원)가 동일한 출력 y(청록색 원)에 매핑 됨. c) 두번째 네트워크는 y를 받아 y'를 반환하는 세 개의 선형 영역으로 이루어짐. 청록색 원이 갈색 원에 매핑 됨. d) (c)에서 정의된 두 번째 네트워크의 함수가 세번 복제 됨.. 2023. 10. 18. [인공지능] SP03. Shallow neural networks 3-1 Neural network example 1. Neural network의 예시 Shallow network: 은닉층이 하나인 신경망 함수 f: 입력 x와, 출력 y를 매핑하는 파라미터 ϕ를 가짐. 파라미터 10개(바이어스 4개, 가중치 6개) 2. 파라미터에 따른 그래프. 파라미터의 선택에 따라 서로 다른 형태의 그래프가 나옴. input, output 관계가 piecewise linear하게 나옴. 그러나 모두 3개의 변곡점을 가지고 있다는 공통점이 있음. joint의 수는 노드 수이다!(마지막 hidden layer의 노드 수가 3개여서 3개의 변곡점.) 3. shallow network그래프 그리는 과정 step1) 0보다 작은 부분을 0으로 만듦.(이때 꺾이는 부분이 최종출력의 joint.. 2023. 10. 18. [인공지능] 6장/ 7장/ 8장 6. Machine learning algorithms 1. 머신러닝 알고리즘 타입(6) ① Supervised leaning(지도 학습) - 각 예제는 레이블이나 목표값과 연결됨.(지도자 O) - x로부터 y를 예측하도록 학습. p(x|y)로 추정해 예측함.(x가 주어졌을 때 y가 나올 확률) ex. 회귀, 분류, 구조화된 출력문제(이미지, 문장, 음성) 등 ② Unspuervised learning(비지도 학습) - 지도자가 없음. 가이드 없이 스스로 데이터를 이해해야함. - 데이터 구조의 유용한 특성을 학습. - 확률 분포 p(x)를 학습. ex. 군집화, 밀도 추정 ③ Semi-supervised learning(반지도 학습) - 일부 예제는 지도 학습처럼 목표값(레이블)을 포함하고, 다른 예제는.. 2023. 10. 17. [자료구조] 4장 스택 4-1 스택 1. 스택이란 : 쌓아놓은 더미. → 후입 선출!(LIFO: Last In First Out): 가장 최근에 들어온 데이터가 가장 먼저 나감 2. 스택의 구조 : 스택의 상단(top), 스택의 하단: 불필요, 요소, 항목, 공백 상태, 포화 상태, 삽입, 삭제 3. 스택 추상 자료형(ADT) 데이터: 후입선출의 접근 방법을 유지하는 요소들의 모음 연산(7): ⊙ init(): 스택을 초기화. ⊙ is_empty(): 스택이 비어있으면 TRUE, 아니면 FALSE를 반환. ⊙ is_full(): 스택이 가득 차 있으면 TRUE, 아니면 FALSE를 반환. ⊙ size(): 스택 내의 모든요소들의 개수를 반환. ⊙ push(x): 주어진 요소 x를 스택의 맨 위에 추가. ⊙ pop(): 스택 맨.. 2023. 10. 16. 이전 1 ··· 5 6 7 8 9 10 11 ··· 16 다음