전체글302 Word2Vec https://better-tomorrow.tistory.com/entry/Word-Embedding 이후 내용 - 단어의 '의미'를 다차원 공간에 벡터화하는 방법을 distributed represenation ▶ dense vector 1. Distributed represenation - Distributional hypothesis라는 가정하에 만들어진 표현 방법 - 비슷한 위치에서 등장하는 단어들은 비슷한 의미를 가진다 - 강아지 ▶ 귀엽다 / 예쁘다 (강아지라는 단어가 뜨면 "귀엽다", "예쁘다" 라는 단어가 함께 등장) - 분포 가설에 근거 ▶ 저런 내용을 가진 텍스트를 벡터화하면 의미적으로 가까운 단어 - Distributional hypothesis을 이용하여 단어들의 셋을 학습 ▶여러 .. 2020. 7. 20. StackGAN 논문 리뷰(작성 중) (Abstract - 기존의 text-to-image 접근 방식으로 생성 된 샘플은 주어진 설명의 의미를 대략적으로 반영할 수 있지만, => 필요한 세부 사항과 생생한 객체 부분을 포함하지는 않는다. - 어려운 문제를 sketch-refinement process를 통해보다 관리하기 쉬운 sub-problems로 decompose한다. - Stage-I GAN : 주어진 text description을 기반으로 객체의 기본 모양과 색상을 스케치 -> low-resolution 이미지를 생성합니다. - Stage-II GAN : Stage-I 결과 및 텍스트 설명을 입력 -> high- resolution 이미지를 생성 - Synthesized image의 diversity를 개선하고 conditional.. 2020. 7. 16. Word Embedding Word Embedding - 텍스트를 구성하는 하나의 단어를 수치화하는 방법의 일종 - 단어를 vector로 표현 [아래는 참고 2, 3 링크에서 참고하여 필요한 내용을 적어 놓고 일부 수정한 것입니다.] 데이터 = 대상의 속성을 표현해 놓은 자료 - 속성들을 바탕으로 대상을 판단할 수 있다 (속성 → 대상 판단) - 따라서 대상을 어떤 속성으로 표현하는지 매우 중요하다 (대상 속성 표현 중요) - 이렇게 대상의 속성을 표현하는 방식 => Feature representation Ex) if 텍스트 - 텍스트의 속성을 표현해 놓은 것 : 데이터 - 단어가 강아지라면 강아지 자체가 대상의 속성이 될 수 있다. - 품사, 앞 단어 또는 문장에서 몇번째 단어인지, 단어가 긴지 짧은지 등이 중요할 수 있다. .. 2020. 7. 13. Representation 간단한 기계 학습 알고리즘들과의 성과는 주어진 자료의 표현(representation)에 크게 의존한다. 예를 들어 로지스틱 회귀를 제왕절개 추천에 사용할 때, AI 시스템이 환자를 직접 진찰하지는 않는다. 대신 의사가 시스템에 여러 가지 관련 정보를 제공한다. 환자 자료의 표현에 있는 그러한 각각의 정보 조각을 특징(feature)라고 부른다. 책 심층학습(http://www.yes24.com/Product/Goods/65576412) 참고 2020. 7. 7. 이전 1 ··· 68 69 70 71 72 73 74 ··· 76 다음