uos-machine-learning
서버가 필요한 이유 API : 프로그램을 쉽게 제작할 수 있게 미리 만들어 놓은 것들의 모임 Client : 다른 곳에 있는 단말에 데이터를 달라고 요청하는 프로그램 Server : 다른 곳에서 요청받는 명령을 처리해주는 프로그램 Port : 단말에 접속하기 위한 논리적인 접속 위치 포트번호 설명 0~1023 Well-known port 1024~49151 Registered 49152~65535 Dynamic Port Protocol : 데이터를 주고받는 형태 Ajax : 비동기식 자바스크립트 XML, 웹 서버에서 데이터만 받아오기 위한 기술 대표적인 서버 유형 웹서버 채팅서버 위치 기반 서비스 서버 모바일 서버 JSON-RPC 서버 웹 서버의 기능 노드에서 제공하는 모듈로 웹 서버를 만듬. Expre..

오늘은 Text to Speech 딥 보이스 코드를 실행해보고 뜯어보는 시간을 가지겠습니다. 만들어진 오디오 샘플은 아래링크에서 확인가능하다고 합니다. 시작하기 전에 아래 코드로 먼저 설치해주세요. 다만 위 깃허브는 아웃풋을 실제 음성으로 만들 때 쓰는 World 알고리즘이 생략되어 있습니다. World 알고리즘이 구현된 코드가 궁금하시다면 링크로 들어가시면 됩니다. 0. Installation git clone https://github.com/r9y9/deepvoice3_pytorch && cd deepvoice3_pytorch pip install -e ".[bin]" 1. Getting Started 1-0. Preset Parameters 더보기 이 코드에서는 많은 파라미터를 사용할 수 있습니다..

소프트웨어 마에스트로 11기 지원에 필요한 모든 전형을 마무리했습니다. 코로나로 인해 밀리고 밀려 드디어 끝났습니다. ㅠㅠ 처음 이 프로그램에 지원할 때는 밑져야 본전이지, 될대로 되라는 마인드로 시작했지만 전형을 하나씩 통과하면 할수록 어, 내가? 혹시? 하는 마음에 기대가 부풀어 임하는 재미가 있었습니다. 1. 자기소개서 - 서류 전형 뽀개기 서류 전형에 필요한 질문은 단순하게 요약하면 다음과 같았습니다. 소프트웨어 분야의 전문성을 키우기 위해 그동안 어떤 노력을 하셨나요? 위 질문에 대하여 저는 참여했던 인공지능 동아리 투빅스 활동, 세브란스 영상의학과에서 외부연구원으로 참여한 경험을 위주로 작성하였습니다. 하지만 동아리나 소모임, 혹은 본인이 진행했던 프로젝트를 작더라도 솔직하게 작성을 하시면 별..

Yolo v3는 이름에서 알 수 있듯이 초기 Yolo Model에서 약간의 디자인의 변화를 준 모델이다. 320 x 320 yolo v3는 22ms 정도로 빠르며, SSD와 거의 정확도가 유사하다는 것을 장점으로 꼽고 있다. 1. The Deal 1-1. Bounding Box Prediction network 는 bounding box의 4좌표 tx, ty, tw, th 를 예측한다. 학습하는 동안에는 sum of squared error loss를 사용한다. 그리고 각 bounding box의 objectness socre를 logistic regression 을 이용하여 예측한다. 1-2. Class Prediction softmax 함수를 쓰는 것 대신에 독립적인 logistic classifie..

오늘은 딥러닝 모델을 돌릴 때 Image Data Augmentation을 편하게 해주는 imgaug 라이브러리에 대하여 소개하고자 합니다. Data augmentation은 학습 데이터의 변조를 통해 좀 더 일반화된 모델을 얻기 위해서 사용하는 기법인데, 그 중에서도 imgaug는 이미지를 augmentation 해주는 효과를 가지고 있습니다. imgaug의 가장 좋은 점은 단순히 데이터를 회전, 노이즈, 확대 등을 할 수도 있지만 anchor box, heatmaps, seg.Maps, Keypoints 등도 같이 적용할 수 있다는 점입니다. Installation 파이썬 라이브러리다 보니 설치도 매우 쉽게 가능합니다. conda, pip 로 설치가 가능합니다! Installation : Anacon..
기존 CycleGAN Discriminator Loss를 Mean_squared error 대신 Wasserstein Loss을 사용하면 좀 더 안정적인 학습이 가능하다. Discriminator A loss function # Real loss loss_real = criterion_GAN(D_A(real_A), valid) # Fake loss (on batch of previously generated samples) fake_A_ = fake_A_buffer.push_and_pop(fake_A) loss_fake = criterion_GAN(D_A(fake_A_.detach()), fake) # Total loss loss_D_A = (loss_real + loss_fake) / 2 Discrim..
https://github.com/lsh3163/RecommedationTutorial
플로이드는 다익스트라로도 풀 수 있다. #include #include #include #include using namespace std; // dist[i][j] -> i에서 j로 가는 최단 경로 int dist[101][101]; bool visited[101]; int N, M; // 인접리스트 adj[i] = {(v1, x1), (v2, x2)} vector adj[101]; void dijkstra(int root) { dist[root][root] = 0; priority_queue q; q.push({ 0, root }); // visited 배열 초기화 memset(visited, 0, sizeof(visited)); while (!q.empty()) { int now = q.top()...