일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 자바 리트코드
- 그래프 자바
- 카카오
- DP
- daily challenge
- 리트코드 1557
- 코딩테스트
- 리트코드 자바
- 백준
- 자바
- 스프링 에러
- 스택
- 구현
- 백준 16935
- dfs
- 분할정복
- java 프로그래머스
- 자바 5464
- java leetcode
- leetcode
- 백준 18222
- 리트코드
- leetcode 1721
- BFS
- 프로그래머스 java
- 코테
- 파이썬
- 프로그래머스
- Java
- 인텔리제이 에러
- Today
- Total
레벨업 일지
[AI] 머신러닝이란? 본문
서론
요즘 chatGPT 가 핫하다. 마이크로소프트에서 OPEN AI 를 14조원에 인수해서 구글 측에 비상이 걸렸다는 흥미로운 기사도 뜨고 2023년 3월 16일 마이크로소프트 356 제품군에(엑셀, ppt, 워드 등등) AI 를 탑재한 MS copliot을 발표했다.
2016년 알파고 vs 이세돌로 컴퓨터 전공자가 아닌 비전공자들한테도 인공지능 키워드가 등장했고, 이제는 chatgpt 가입자 수가 한달만에 1억명 돌파할 정도이니 AI 기술이 일반인들에게 화두이다.
반복적인 코드와 틀을 AI 가 만드는 일은 멋있지만 개발자로 취업을 생각하고 있는 나에겐 위협의 대상이다. 이미 MS 에서는 개발에 박차를 가하기 위해 개발의 제한을 두는 부서를 전원 해고했다.
국내 코딩 테스트 문제 사이트로 유명한 프로그래머스에서 개발자로서 가장 고민 되는 것을 조사하였는데 "전문성 부족" 이 1순위, "개발자 수명" 항목이 2순위로 조사됐다.
역시 소프트웨어 업종은 단순히 구글링해서 copy and paste 하여 코드 몽키가 되는 것보단 어떠한 기술을 배우면서 전문성을 늘리는 것을 지향해야 오래 살아남을 수 있다. 중요한건 꺾이지 않는 개발
머신러닝 개념과 분류
머신러닝은 인공 지능(AI)의 한 분야로, 컴퓨터가 데이터를 통해 학습하게 하여 개발자가 손대지 않고 스스로 성능을 개선하도록 하는 알고리즘 및 기술을 연구하는 분야이다.
일반적으로 크게 세 가지 기준으로 분류합니다.
정답의 유무
- supervised learning :학습할때 정답 레이블이 주어진다.
- 사과랑 바나나 그림을 주어지면, 각 그림의 이름에 '사과', '바나나' 라벨링을 하여 학습에 이용한다.
- unsuperviesd learning : 정답 없이 데이터 규칙을 찾는다.
- '사과''바나나' 라벨링을 하지 않은 사과랑 바나나 그림에서 사과는 사과끼리, 바나나는 바나나끼리 그룹핑한다.
학습의 시기
- offline learning : 인공지능 서비스 출시 이전에 미리 학습을 다 시키고 평가를 하고 좋은 성능만 출시, 이후에는 코드 변경 없이는 성능 업데이트를 하지 않는다.
- online learning : 학습을 조금만 한 상태에서 출시를 하고 서비스를 제공하면서 점진적으로 학습한다.
모델의 유무
머신러닝에서 모델이란 데이터의 특징(pattern)을 잘 일반화(generalization) 한 미리 만들어진 파일이다. 가장 잘 알려진게 선형 회귀(Linear Regression)가 있다.
- Instance-based learning : 모델 없이 경험으로 학습한다 스팸 메일 포맷과 비슷한 메일은 스팸으로 분류하는 ,Q-leanring, KNN 알고리즘이 대표적인 예시이다. 데이터 크기가 큰 빅데이터의 경우 성능이 떨어진다.
- Model-based learning : 모델을 구축하여 학습한다.
참고 & 기사
- 참고 1
Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
- 참고 2
- 기사1
- 기사 2
- 기사3
- 기사 4