Software (58) 썸네일형 리스트형 [자료구조 알고리즘] 기초 . 정보 (information) : 어떤 목적에 기반한 action에 대한 직/간접적 지식 , . 자료 (data) : 정보를 얻기 위한 data processing system의 입력 되는 값 ( 정보의 자원 )으로 fact, concept, instruction의 총칭으로 실체의 유무와 관련이 없다. . DPS에서 처리할 수 있도록 다양한 자료형(data type)이 정의 되며 자료의 타입으로는 int , real(float) , double precision, complex, char, List등 을 다루게 된다. 자료 객체는 자료형의 실체를 구성하는 집합(set)과 요소(element)로 구성되며 data object에 대하여 주어지는 명칭은 variable이라고한다. 흔히 말하는 자료구조 (d.. [DL] DNN( Deep Neural Network) 정리 시작하기에 앞서 딥러닝 데이터과학을 시작하기에 앞서 DNN CNN RNN LSTM알고리즘에 대하여 간략하고 상세하게 정리하여 필요할때마다 나만의 블로그로 개념을 체크 및 확인하기위하 딥러닝 알고리즘을 정리하고자 한다. AI(Aritficial Interlligence)는 인간의 지능을 기계어로 구현한 것이다. 여기서 AI 알고리즘중 Deeplearning/ Machine Learning은 AI를 구현하는 접근 방법중 한분야이다. DNN의 가장 기초인 퍼셉트론은 단층 퍼셉트론과 다층 퍼셉트론으로 나누어진다. 단층퍼셉트론은 값을 보내는 단계(층)[입력층] 와 값을 받아서 출력하는 단계(층)[출력층]로 나뉘어 지는 반면 중간에 층을 더 추가하여 은닉층을 추가한 모델을 다층 퍼셉트론이라고 한다. 1. 1957... [자료구조] linked list , double linked list , circular linked list 이해 소개 linked list는 Array list와 달리 각 노드가 데이터와 포인터를 가지고 한 줄로 연결되어 있는 방식으로 Element - Element간 연결을 이용하여 리스트를 구성하여 데이터를 저장하는 자료 구조이다. 연결리스트인 linked list를 구성함에 있어 link(연결)에 대하여 파악하는 것이 가장 중요한 목적이라 할 수 있다. linked list의 종류로 Single Linked list, Double linked list, Circular linked list, Double Circular Linked list 등이 있으며 앞으로 구현과 함께 소개하도록 하겠다. linked list의 장점 1. 각 NODE의 중간지점에서 자료의 추가 삭제가 O(1)의 시간을 가지는 장점이 있다... Mac M1 에서 Github 시작하기 Mac M1 에서 Github를 시작하기 전에.... Git은 컴퓨터 파일의 변경사항을 추적하고 여러 사용자들 간 파일의 작업을 조율하기 위한 분산형 버전관리 시스템이다. 소프트웨어 개발에 있어 소스 코드 관리에 주로 사용하며 어떤 집합들의 파일의 변경사항을 지속적으로 추적하기위해 사용할 수 있다. 즉 소스 코드의 형상관리를 위해 사용되는 툴이라고 볼 수 있다. 그렇기 때문에 깃은 소스코드를 따로 주고 받을 필요 없이 Git을 사용하여 하나의 프로젝트 구성에 있는 같은 파일을 여러 사람이 동시에 작업하는 병렬 개발 및 같은 파일의 각각의 다른 버전을 저장하는 것이 가능하다는것을 가장 큰 장점으로 볼 수 있다. Github는 분산 버전 관리 툴인 깃을 사용하는 프로젝트를 지원하는 웹호스팅 서비스로 영리목적.. [python] web Scraping & crawling ) 사용 방법 web crawling 이란 ? 월드 와이드 맵 소위 www상의 웹페이지 데이터를 프로그래밍적으로 추출하는 방법을 말한다. 데이터를 추출하는 방식으로는 web Crawling과 web Scraping방식이 존재한다. web Crawling은 실시간 연동을 통하여 자동적으로 화면에 있는 data를 업데이트하여 데이터를 유지하는 기법이다. 반면 Web Scraping은 scraping시점의 데이터만 가져오는 방식이지만 자동적 실시간 데이터를 유지하는 방식은 아니라고 할수있다. Crawling 툴 및 라이브러리 데이터 수집에있어 본질적으로 어떤 툴이나 라이브러리던 웹상의 데이터를 수집한다는 것에 있어 본질은 변하지 않는다. 하지만 사용자의 데이터 니즈에 따라 툴 및 라이브러리를 알맞게 사용하여 수집하면 된다... [Data - Python] CSV 파일 총정리 딥러닝모델링과 데이터를 처리하기 위해 csv파일에 대해 파이썬으로 cvs파일의 데이터를 읽고 처리하기위해 csv파일 읽는 방법에대해 정리하고자 한다. csv파일이란 ? CSV(Comma-Separated Value)는 데이터 필드를 Comma즉 쉼표","로 구분한 데이터 및 텍스트 파일이다. 확장자는 .csv 이다. 기본 내장함수 이용하기 - csv.reader() 이용하기 import csv file_path = "path" data = open(file_path) reader = csv.reader(data) lines = list(reader) print(lines) - csv.DictReader() 이용하기 import csv from collections import defaultdict col.. [MLE]Maximum likelihood estimation에 대하여 이번 포스팅에서는 Smoothing , Estimation, Probability Distribution등을 조사하며 나오는 Maximum likelihood 가 무엇인지 알아 보도록 하겠다. Wikipedia를 살펴보면 MLE는 Statistic에서 Maximum likelihood method는 Observation data 가 주어졌을때 가정된 확률분포(Probability Distribution)의 Parameter θ를 추정하는 방법이다. 가정된 Statistic model에서 Observation data에 의존하여 가장 가능성이(Maximizing한) 있는 likelihood function을 추정하는 것이다. 즉 parameter θ의 공간에서 maximize한 Likelihood func.. Keras - 정리 3. (Sequential model ) 본게시물은 Keras 링크의 내용을 공부하며 한글로 번역 및 정리한 문서입니다. Keras: the Python deep learning API Keras: the Python deep learning API State-of-the-art research. Keras is used by CERN, NASA, NIH, and many more scientific organizations around the world (and yes, Keras is used at the LHC). Keras has the low-level flexibility to implement arbitrary research ideas while offering optional high keras.io Sequential mode.. [Data processing] Smooth Bootstrap & Parametric Bootstrap Smooth Bootstrap Smooth Bootstrap은 Normally한 Distribution에서 적은 양의 Zero-centered Random nosie가 각 Resampling된 observation data에 추가가 된 방식이다. 즉 데이터의 Kernel density estmate를 Sampling 하는것과 같다고 할수 있다. observation data set X = { X1 , .... Xn}은 density f의 잘 알지 못하는 어떤 continuous distribution F로부터의 Random Samplie이라고 가정해보자. α(F)는 α(F^) K가 Unit Variance를 가지는 Symmetric Kernel Density function이라고 가정하면 아래의 첫번째 .. KDE -Kernel Density Estimation 이란 ? Smoothing Bootstrap을 공부하다 보면 Kernel Density Estimation개념이 나오게 된다 또한 Bootstrap method를 사용하는 몇몇 논문을 확인하면 Long Term Estimate 기법에서 데이터의 Density를 Estimation하는게 더 유익하다고 한다. 여기서 Density Estimation이 무엇인가 ? 또한 그냥 가볍게 아~ 저게 Kernel이구나 하고 사용하였던 Kernel에 대하여 다루어 보고 KDE가 무엇인지 밝혀보고자 한다 . Motivation 어떤 데이터의 분포를 파악하는 것은 데이터 분석시 아주 중요한 단계라고 할 수 있다. 실제 데이터 분포는 정규 분포와 같은 형태를 따르지 않고 데이터가 어떤 분포를 따르는지 대체로 알 수 없다. 이럴때 분.. 이전 1 2 3 4 5 6 다음