creative thinking
logical thinking
understanding
아주 아주 클리셰. 지식의 단순 이해보다는 그 지식을 가지고 논리적으로, 창의적으로 생각하는 것이 훨씬 중요하다는 말.
하지만 아주 아주 실천하기 어려운 일. 자꾸 더 많은 지식을 집어 넣으려고만 한다. 중요한 건 그게 아닌데. 지식을 갖고 노는 능력이 훨 중요한데.
항상 중요한 게 무엇인지 까먹지 말자!
그걸 알아봐주는 사람은
있.다.
2015년 4월 9일 목요일
자신의 약한 모습을 드러낼 수 있는 사람이 진짜 강한 사람이다.
자신의 약한 모습을 드러낼 수 있는 사람이 진짜 강한 사람이다.
어제의 깨달음
그리고
어제의 실천
나의 가장 소중한 사람들에게 내 약한 모습을 드러내 버렸다. 드러냈다?
그게 어떻게 보면 1년이 걸렸고, 또 어떻게 보면 25년이 걸렸다.
나는 완벽하지 않은 상태에 대한 일종의 공포를 가진 사람이다. (이걸 Atelophobia (fear of imperfection)이라고 하더라. 관련 글을 몇 개 읽어봤는데 구구절절 내 얘기 같다.) 지금은 그래도 많이 극복이 되었지만 발표의 순간이 오면 얼굴이 새빨게지곤 했다. 조금이라도 실수할까봐 남들이 이상하게 보면 어떡하지 걱정하는 게 몸에 뱄다. 내 생각을 이야기하는 게 두려웠다. 이상하게 생각할까봐.
그리고 이런 성향은 내가 경쟁적인 한국의 입시제도의 첨단을 달리면서 더욱 강해졌다. 아무리 잘해도 그것은 칭찬거리가 되지 못했다. 오히려 나는 조금의 부족한 부분을 확대경을 끼고 보아 그 부분을 메꾸어야 했다. 그래서 나는 인생에서 거의 성취감을 느껴본 적이 없다. 이런 말을 들으면 사람들은 많이 놀랄 것이다. 성취라면 성취라고 할 수있는 크고 작은 일들이 있었지만, 나는 그 안에서 항상 나의 부족함을 보았다. 그걸 겸손이라고 생각했다. 하지만 그건 겸손이라기보다는 자기 비하에 가까운 것이 아니었을까. 부족한 상태의 나를 사랑하지 못했다. 부족은 나에게 곧 스트레스를 의미했다. 부족한 것의 발견은 자동적으로 내게 스트레스를 준다. 그리고 이러한 스트레스는 내가 괴로운 고3시절을 보내게 된 가장 큰 이유다.
대학 입학 이후 갈 길을 몰라 방황했던 이유도. 내 생각에 자신이 없었으니까. 어떤 길을 가려고 해도 그 길의 여행을 이끌고 나갈 힘이 내겐 없었다. 도대체 그것이 무엇이길래. 그 힘은 공부를 잘하는 것과는 아주 아주 별개의 문제였다.
어제는 이 모든 두려움을 이기고 나의 가장 큰 약점을 드러냈다.
'나는 부족한 나를 사랑할 자존감이 부족하다는 것.'
개인적으로 너무나 큰 일을 해낸 나를 정말 응원해주고 싶다.
이젠 조금씩 그 자존감을 채워나갈 일만 남았다.
부족한 부분에 한숨짓기 보다는
조금씩 쌓아가는 내 모습을 사랑해야지.
어제의 깨달음
그리고
어제의 실천
나의 가장 소중한 사람들에게 내 약한 모습을 드러내 버렸다. 드러냈다?
그게 어떻게 보면 1년이 걸렸고, 또 어떻게 보면 25년이 걸렸다.
나는 완벽하지 않은 상태에 대한 일종의 공포를 가진 사람이다. (이걸 Atelophobia (fear of imperfection)이라고 하더라. 관련 글을 몇 개 읽어봤는데 구구절절 내 얘기 같다.) 지금은 그래도 많이 극복이 되었지만 발표의 순간이 오면 얼굴이 새빨게지곤 했다. 조금이라도 실수할까봐 남들이 이상하게 보면 어떡하지 걱정하는 게 몸에 뱄다. 내 생각을 이야기하는 게 두려웠다. 이상하게 생각할까봐.
그리고 이런 성향은 내가 경쟁적인 한국의 입시제도의 첨단을 달리면서 더욱 강해졌다. 아무리 잘해도 그것은 칭찬거리가 되지 못했다. 오히려 나는 조금의 부족한 부분을 확대경을 끼고 보아 그 부분을 메꾸어야 했다. 그래서 나는 인생에서 거의 성취감을 느껴본 적이 없다. 이런 말을 들으면 사람들은 많이 놀랄 것이다. 성취라면 성취라고 할 수있는 크고 작은 일들이 있었지만, 나는 그 안에서 항상 나의 부족함을 보았다. 그걸 겸손이라고 생각했다. 하지만 그건 겸손이라기보다는 자기 비하에 가까운 것이 아니었을까. 부족한 상태의 나를 사랑하지 못했다. 부족은 나에게 곧 스트레스를 의미했다. 부족한 것의 발견은 자동적으로 내게 스트레스를 준다. 그리고 이러한 스트레스는 내가 괴로운 고3시절을 보내게 된 가장 큰 이유다.
대학 입학 이후 갈 길을 몰라 방황했던 이유도. 내 생각에 자신이 없었으니까. 어떤 길을 가려고 해도 그 길의 여행을 이끌고 나갈 힘이 내겐 없었다. 도대체 그것이 무엇이길래. 그 힘은 공부를 잘하는 것과는 아주 아주 별개의 문제였다.
어제는 이 모든 두려움을 이기고 나의 가장 큰 약점을 드러냈다.
'나는 부족한 나를 사랑할 자존감이 부족하다는 것.'
개인적으로 너무나 큰 일을 해낸 나를 정말 응원해주고 싶다.
이젠 조금씩 그 자존감을 채워나갈 일만 남았다.
부족한 부분에 한숨짓기 보다는
조금씩 쌓아가는 내 모습을 사랑해야지.
2015년 4월 3일 금요일
machine learning recap - until supervised learning
학교 Data Science 수업과 Coursera에서 제공하는 Machine Learning by Andrew Ng을 동시에 수강중이다. 학교 수업은 사실상 Andrew Ng 수업의 강의 자료를 바탕으로 수업중!
처음엔 수월했는데 한 달 쯤 지나니 머리가 살짝 아파오기 시작한다.
정리가 필요해!
2. 어떤 모델을 만들지 구상했다면, 모델을 실제로 만들어야지!
처음엔 수월했는데 한 달 쯤 지나니 머리가 살짝 아파오기 시작한다.
정리가 필요해!
Machine Learning
- Supervised Learning: knows target variable
- Unsupervised Learning: don't know (usually involves clustering data)
Supervised Learning Algorithm: 한 마디로 '예측 모델(hypothesis)'을 만드는 알고리즘
1. 모델 모양 정하기:
linear regression, polynomial regression(quadratic regression, cubic regression, etc), logarithmic regression, logistic regression 등 등 여러가지 모델 중에서 데이터 성격에 맞는 것으로다가 택일!
target variable이 continuous하고 포물선으로 분포한다 -> quadratic regression
target variable이 discrete하다 -> logistic regression (계단 모양이라 discrete value를 설명하기에 적합)
2. 어떤 모델을 만들지 구상했다면, 모델을 실제로 만들어야지!
- Gradient Descent으로 만들기: 모델에 들어갈 파라미터를 임의로 하나 선정하고 조금씩 그 파라미터를 수정하여 마침내 최적의 파라미터를 찾아내는 방법 (feature가 많아지면 유리함)
- Normal Function으로 만들기: 매트릭스로 한방에 구하는 방법 (feature가 많아지면 시간이 오래 걸림)
모델 만들 때, training data에 overfitting되는 문제(training data를 완벽하게 설명하지만 너무 복잡해져서 new data를 제대로 예측하지 못하게 되는 문제)를 피하기 위해서 regularization 필요! -> 각 feature의 영향력을 축소하라! -> how? cost function에 lambda * parameter 값을 추가! (*요 부분은 직관적인 이해를 위해 좀 더 공부가 필요! right now! 쫌 있다 강의 듣고 정리할거임)
3. 이제 모델이 완성되었다. 새로운 데이터를 모델에 넣고 target variable을 예측해보자!
머신러닝이란 대략 이러한 것이다. (것인 것 같다...)
지금까지는 그냥 통계인 것 같다. (비록 통계를 제대로 배워본 적은 없지만, 지금까지의 내용은 inferential statistics 의 범주에 들어가지 않나 싶다 *정확하지 않음)
지금까지는 그냥 통계인 것 같다. (비록 통계를 제대로 배워본 적은 없지만, 지금까지의 내용은 inferential statistics 의 범주에 들어가지 않나 싶다 *정확하지 않음)
피드 구독하기:
덧글 (Atom)