Are you over 18 and want to see adult content?
More Annotations
![A complete backup of westminster.gov.uk](https://www.archivebay.com/archive2/a3520386-ba2d-4a2f-8216-805b6ee0ea83.png)
A complete backup of westminster.gov.uk
Are you over 18 and want to see adult content?
![A complete backup of vertriebslexikon.de](https://www.archivebay.com/archive2/1a582332-8e75-4c69-afaa-eb516c3cae95.png)
A complete backup of vertriebslexikon.de
Are you over 18 and want to see adult content?
![A complete backup of pourhousevancouver.com](https://www.archivebay.com/archive2/d5d0b05a-199c-4cbb-b554-4275f54b880a.png)
A complete backup of pourhousevancouver.com
Are you over 18 and want to see adult content?
![A complete backup of szczepieniadlapodrozujacych.pl](https://www.archivebay.com/archive2/d71afbea-1527-4674-a718-102fde156a60.png)
A complete backup of szczepieniadlapodrozujacych.pl
Are you over 18 and want to see adult content?
![A complete backup of alternative-cancer-care.com](https://www.archivebay.com/archive2/49d6995d-e362-4730-8ef4-55cfe5a93e62.png)
A complete backup of alternative-cancer-care.com
Are you over 18 and want to see adult content?
![A complete backup of legendsofamerica.com](https://www.archivebay.com/archive2/f5abda48-bb61-4da4-b85d-f6f1ff84ca65.png)
A complete backup of legendsofamerica.com
Are you over 18 and want to see adult content?
![A complete backup of bibliotecavirtualmatematicasunicaes.wordpress.com](https://www.archivebay.com/archive2/62b95641-2229-4b06-9d64-19461aca2f7b.png)
A complete backup of bibliotecavirtualmatematicasunicaes.wordpress.com
Are you over 18 and want to see adult content?
![A complete backup of volkswagenbilforsakring.se](https://www.archivebay.com/archive2/8b13d731-cd2c-4716-96ce-e722305a8a49.png)
A complete backup of volkswagenbilforsakring.se
Are you over 18 and want to see adult content?
Favourite Annotations
![A complete backup of apuntedecaramelo.blogspot.com](https://www.archivebay.com/archive/53cebb0a-759f-4d94-bf84-b049066a9222.png)
A complete backup of apuntedecaramelo.blogspot.com
Are you over 18 and want to see adult content?
![A complete backup of studygrowknowblog.com](https://www.archivebay.com/archive/ff4ff1dc-0273-4f73-98a8-89c797d45427.png)
A complete backup of studygrowknowblog.com
Are you over 18 and want to see adult content?
![A complete backup of the-fraternal-order-of-eagles-store.myshopify.com](https://www.archivebay.com/archive/cb7a51af-9e07-43fe-b056-d631f6b036a9.png)
A complete backup of the-fraternal-order-of-eagles-store.myshopify.com
Are you over 18 and want to see adult content?
Text
TYKIMOS.GITHUB.IO
2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problems CLASSIFICATION MODEL Backward path Z0(L) Z1(L) Z2(L) ZN-1(L) Cross-entropy loss L = − N−1 ∑ k=0 t k logZ k = −logZ i L ∂L ∂Z(L) 0 ∂L ∂Z(L) 1 ∂L ∂Z(L) 2 ∂L ∂Z(L) N−1 Y0(L) Y1(L) Y2(L) YN-1(L) ∂Z(L) 0 ∂Y(L) 0 ∂Z(L) 1 ∂Y(L) 1 ∂Z(L) 2 ∂Y(L) 2 ∂Z(L) N−1 ∂Y(L) N−1 1 X1 X2 X1024 Y0 Y1 Y2 Ym W0, 0 설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
EFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have the 김태영의 케라스 블로그 김태영의 케라스 블로그 MIXED REALITY IS A NEW COMMUNICATION SPACE FOR ARTIFICIALSEE MORE ONTYKIMOS.GITHUB.IO
2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problems CLASSIFICATION MODEL Backward path Z0(L) Z1(L) Z2(L) ZN-1(L) Cross-entropy loss L = − N−1 ∑ k=0 t k logZ k = −logZ i L ∂L ∂Z(L) 0 ∂L ∂Z(L) 1 ∂L ∂Z(L) 2 ∂L ∂Z(L) N−1 Y0(L) Y1(L) Y2(L) YN-1(L) ∂Z(L) 0 ∂Y(L) 0 ∂Z(L) 1 ∂Y(L) 1 ∂Z(L) 2 ∂Y(L) 2 ∂Z(L) N−1 ∂Y(L) N−1 1 X1 X2 X1024 Y0 Y1 Y2 Ym W0, 0 설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
EFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have the 김태영의 케라스 블로그 김태영의 케라스 블로그 유용한 딥러닝/머신러닝 프로젝트들TRANSLATE THIS PAGE 인공지능은 여러 분야에서 훌륭한 성과를 내 있으며, 오픈소스 진영에서도 아이디어가 바로 실현할 수 있도록 도움을 줄 수 있는 많은 프로젝트가 진행되고 있습니다. George Seif님이 뽑은 2018년도 유용한 머신러닝 프로젝트를 소개합니다. 원문 글은 Medium을 참고하세요. CLASSIFICATION MODEL Backward path Z0(L) Z1(L) Z2(L) ZN-1(L) Cross-entropy loss L = − N−1 ∑ k=0 t k logZ k = −logZ i L ∂L ∂Z(L) 0 ∂L ∂Z(L) 1 ∂L ∂Z(L) 2 ∂L ∂Z(L) N−1 Y0(L) Y1(L) Y2(L) YN-1(L) ∂Z(L) 0 ∂Y(L) 0 ∂Z(L) 1 ∂Y(L) 1 ∂Z(L) 2 ∂Y(L) 2 ∂Z(L) N−1 ∂Y(L) N−1 1 X1 X2 X1024 Y0 Y1 Y2 Ym W0, 0 수치입력 수치예측 모델 레시피 가장 간단한 1차 선형회귀 모델로 수치예측을 해보겠습니다. 아래 식에서 x, y는 우리가 만 데이터셋이고, 회귀분석을 통해서, w와 b값을 구하는 것이 목표입니다. Y = w * X + b. w와 b값을 구하게 되면, 임의의 입력 x에 대해서 출력 y가 나오는 데 이것이예측
GITHUB PAGES
GitHub Pages
GENERATIVE ADVERSARIAL NETWORKS (GANS) 이해하기TRANSLATE THIS PAGE Generative Adversarial Networks (GANs) 이해하기. Oct 10, 2018 • 박정현. 이 문서에서는 Generative Adversarial Networks(GANs)의 개념을 설명하고, MNIST Data, Keras, Tensorflow를 이용해 간단한 GANs 모델을 만들어 볼 것입니다.원문 튜토리얼에 하이퍼튜닝을 손쉽게 딥러닝에 입문하여 어느정도 모델을 구성할 수 있다면, 그 다음 고민은 어떻게 이 모델을 튜닝해서 성능을 높일까?입니다. 이 과정을 하이퍼파라미터 튜닝이라고 하는데, 모델을 구성하는 여러 요소 중에 최적의 요소 값을 찾아내는 과정을 말합니다. 케라스 모델을 쉽게 튜닝하는 프레임워크를 김태영의 케라스 블로그 김태영의 케라스 블로그 블록과 함께하는 파이썬 딥러닝 케라스 이야기TRANSLATE THIS PAGE 2017년 9월 20일 (주)인스페이스 대전창조경제혁신센터, “블록과 함께하는 딥러닝 실습, 케라스 (Keras) 이야기”. 2017년 8월 24일 개방형컴퓨터통신연구회 건국대학교, “Keras를 활용한 빠른 Deep Learning 응용 개발 워크샵”. 그리 강의 후기들로 조금 더 용기를 학습 모델 보기/저장하기/불러오기TRANSLATE THIS PAGE 학습된 모델 불러오기. ‘mnist_mlp_model.h5’에는 모델 아키텍처와 학습된 모델 가중치가 저장되어 있으니, 이를 불러와서 사용해봅니다. 코드 흐름은 다음과 같습니다. 모델 불러오는 함수를 이용하여 앞서 저장한 모델 파일로부터 모델을 재형성합니다. 실제 연관된이미지변환하기 연관된이미지변환하기-태양흑점스케치로자기장지도생성-이하림 경희대학교우주탐사학과 harim@khu.ac.kr 1st 함께하는딥러닝컨퍼런스2018.06.28 MIXED REALITY IS A NEW COMMUNICATION SPACE FOR ARTIFICIALSEE MORE ONTYKIMOS.GITHUB.IO
GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. 설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 김태영의 케라스 블로그 김태영의 케라스 블로그 DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problemsEFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
GITHUB PAGES
GitHub Pages
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
MIXED REALITY IS A NEW COMMUNICATION SPACE FOR ARTIFICIALSEE MORE ONTYKIMOS.GITHUB.IO
GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. 설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 김태영의 케라스 블로그 김태영의 케라스 블로그 DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problemsEFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
GITHUB PAGES
GitHub Pages
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
MIXED REALITY IS A NEW COMMUNICATION SPACE FOR ARTIFICIAL Mixed Reality is a New Communication Space for Artificial Intelligence. Feb 12, 2021 • 김태영. When artificial intelligence and metaverse become common, the main means of artificial intelligence to communicate with people will be a mixed reality. (* 아래에 한국어 버전도 제공하고 있습니다. - The Korean version isalso
EFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problems 수치입력 수치예측 모델 레시피 가장 간단한 1차 선형회귀 모델로 수치예측을 해보겠습니다. 아래 식에서 x, y는 우리가 만 데이터셋이고, 회귀분석을 통해서, w와 b값을 구하는 것이 목표입니다. Y = w * X + b. w와 b값을 구하게 되면, 임의의 입력 x에 대해서 출력 y가 나오는 데 이것이예측
유용한 딥러닝/머신러닝 프로젝트들TRANSLATE THIS PAGE 인공지능은 여러 분야에서 훌륭한 성과를 내 있으며, 오픈소스 진영에서도 아이디어가 바로 실현할 수 있도록 도움을 줄 수 있는 많은 프로젝트가 진행되고 있습니다. George Seif님이 뽑은 2018년도 유용한 머신러닝 프로젝트를 소개합니다. 원문 글은 Medium을 참고하세요.GITHUB PAGES
GitHub Pages
CLASSIFICATION MODEL Backward path Z0(L) Z1(L) Z2(L) ZN-1(L) Cross-entropy loss L = − N−1 ∑ k=0 t k logZ k = −logZ i L ∂L ∂Z(L) 0 ∂L ∂Z(L) 1 ∂L ∂Z(L) 2 ∂L ∂Z(L) N−1 Y0(L) Y1(L) Y2(L) YN-1(L) ∂Z(L) 0 ∂Y(L) 0 ∂Z(L) 1 ∂Y(L) 1 ∂Z(L) 2 ∂Y(L) 2 ∂Z(L) N−1 ∂Y(L) N−1 1 X1 X2 X1024 Y0 Y1 Y2 Ym W0, 0 학습 모델 보기/저장하기/불러오기TRANSLATE THIS PAGE 학습된 모델 불러오기. ‘mnist_mlp_model.h5’에는 모델 아키텍처와 학습된 모델 가중치가 저장되어 있으니, 이를 불러와서 사용해봅니다. 코드 흐름은 다음과 같습니다. 모델 불러오는 함수를 이용하여 앞서 저장한 모델 파일로부터 모델을 재형성합니다. 실제 파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have the 연관된이미지변환하기 연관된이미지변환하기-태양흑점스케치로자기장지도생성-이하림 경희대학교우주탐사학과 harim@khu.ac.kr 1st 함께하는딥러닝컨퍼런스2018.06.28 설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
김태영의 케라스 블로그 김태영의 케라스 블로그 GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. 2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problemsEFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have theGITHUB PAGES
GitHub Pages
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
김태영의 케라스 블로그 김태영의 케라스 블로그 GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. 2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problemsEFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have theGITHUB PAGES
GitHub Pages
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
MIXED REALITY IS A NEW COMMUNICATION SPACE FOR ARTIFICIAL Mixed Reality is a New Communication Space for Artificial Intelligence. Feb 12, 2021 • 김태영. When artificial intelligence and metaverse become common, the main means of artificial intelligence to communicate with people will be a mixed reality. (* 아래에 한국어 버전도 제공하고 있습니다. - The Korean version isalso
김태영의 케라스 블로그 코랩을 이용해서 3년 전 집필한 케라스 도서 소스코드 업데이트 해보기. 3년 전 “블록과 함께하는 파이썬 딥러닝 케라스”라는 책을 집필하였고, 그간 많은 변동사항이 있었습니다. 케라스가 고수준 API이라서 인터페이스 상에서 크게 변화는 없었으나 IT 분야 GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism.EFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
CLASSIFICATION MODEL Backward path Z0(L) Z1(L) Z2(L) ZN-1(L) Cross-entropy loss L = − N−1 ∑ k=0 t k logZ k = −logZ i L ∂L ∂Z(L) 0 ∂L ∂Z(L) 1 ∂L ∂Z(L) 2 ∂L ∂Z(L) N−1 Y0(L) Y1(L) Y2(L) YN-1(L) ∂Z(L) 0 ∂Y(L) 0 ∂Z(L) 1 ∂Y(L) 1 ∂Z(L) 2 ∂Y(L) 2 ∂Z(L) N−1 ∂Y(L) N−1 1 X1 X2 X1024 Y0 Y1 Y2 Ym W0, 0GITHUB PAGES
GitHub Pages
수치입력 수치예측 모델 레시피 가장 간단한 1차 선형회귀 모델로 수치예측을 해보겠습니다. 아래 식에서 x, y는 우리가 만 데이터셋이고, 회귀분석을 통해서, w와 b값을 구하는 것이 목표입니다. Y = w * X + b. w와 b값을 구하게 되면, 임의의 입력 x에 대해서 출력 y가 나오는 데 이것이예측
순환 신경망 레이어 이야기 순환 신경망 모델은 순차적인 자료에서 규칙적인 패턴을 인식하거나 그 의미를 추론할 수 있습니다. 순차적이라는 특성 때문에 간단한 레이어로도 다양한 형태의 모델을 구성할 수 있습니다. 케라스에서 제공하는 순환 신경망 레이어는 SimpleRNN, GRU, LSTM이 있으나 주로 사용하 유용한 딥러닝/머신러닝 프로젝트들TRANSLATE THIS PAGE 인공지능은 여러 분야에서 훌륭한 성과를 내 있으며, 오픈소스 진영에서도 아이디어가 바로 실현할 수 있도록 도움을 줄 수 있는 많은 프로젝트가 진행되고 있습니다. George Seif님이 뽑은 2018년도 유용한 머신러닝 프로젝트를 소개합니다. 원문 글은 Medium을 참고하세요. 파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have the 설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
김태영의 케라스 블로그 김태영의 케라스 블로그 GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. 2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problemsEFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have theGITHUB PAGES
GitHub Pages
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
김태영의 케라스 블로그 김태영의 케라스 블로그 GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. 2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problemsEFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have theGITHUB PAGES
GitHub Pages
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
MIXED REALITY IS A NEW COMMUNICATION SPACE FOR ARTIFICIAL Mixed Reality is a New Communication Space for Artificial Intelligence. Feb 12, 2021 • 김태영. When artificial intelligence and metaverse become common, the main means of artificial intelligence to communicate with people will be a mixed reality. (* 아래에 한국어 버전도 제공하고 있습니다. - The Korean version isalso
김태영의 케라스 블로그 코랩을 이용해서 3년 전 집필한 케라스 도서 소스코드 업데이트 해보기. 3년 전 “블록과 함께하는 파이썬 딥러닝 케라스”라는 책을 집필하였고, 그간 많은 변동사항이 있었습니다. 케라스가 고수준 API이라서 인터페이스 상에서 크게 변화는 없었으나 IT 분야 GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism.EFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
CLASSIFICATION MODEL Backward path Z0(L) Z1(L) Z2(L) ZN-1(L) Cross-entropy loss L = − N−1 ∑ k=0 t k logZ k = −logZ i L ∂L ∂Z(L) 0 ∂L ∂Z(L) 1 ∂L ∂Z(L) 2 ∂L ∂Z(L) N−1 Y0(L) Y1(L) Y2(L) YN-1(L) ∂Z(L) 0 ∂Y(L) 0 ∂Z(L) 1 ∂Y(L) 1 ∂Z(L) 2 ∂Y(L) 2 ∂Z(L) N−1 ∂Y(L) N−1 1 X1 X2 X1024 Y0 Y1 Y2 Ym W0, 0GITHUB PAGES
GitHub Pages
수치입력 수치예측 모델 레시피 가장 간단한 1차 선형회귀 모델로 수치예측을 해보겠습니다. 아래 식에서 x, y는 우리가 만 데이터셋이고, 회귀분석을 통해서, w와 b값을 구하는 것이 목표입니다. Y = w * X + b. w와 b값을 구하게 되면, 임의의 입력 x에 대해서 출력 y가 나오는 데 이것이예측
순환 신경망 레이어 이야기 순환 신경망 모델은 순차적인 자료에서 규칙적인 패턴을 인식하거나 그 의미를 추론할 수 있습니다. 순차적이라는 특성 때문에 간단한 레이어로도 다양한 형태의 모델을 구성할 수 있습니다. 케라스에서 제공하는 순환 신경망 레이어는 SimpleRNN, GRU, LSTM이 있으나 주로 사용하 유용한 딥러닝/머신러닝 프로젝트들TRANSLATE THIS PAGE 인공지능은 여러 분야에서 훌륭한 성과를 내 있으며, 오픈소스 진영에서도 아이디어가 바로 실현할 수 있도록 도움을 줄 수 있는 많은 프로젝트가 진행되고 있습니다. George Seif님이 뽑은 2018년도 유용한 머신러닝 프로젝트를 소개합니다. 원문 글은 Medium을 참고하세요. 파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have the 설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. 김태영의 케라스 블로그 김태영의 케라스 블로그 2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problems 파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have theEFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
GITHUB PAGES
GitHub Pages
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
설명가능한 AI FOR 인공지능 윤리 ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫ ⚫⚫ • •
GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism. 김태영의 케라스 블로그 김태영의 케라스 블로그 2ND DLCAT 나도 너도 모르는 GRAPH NEURAL NETWORK의 힘 Graph structure 2 3 1 5 4 0 1 1 0 0 1 0 1 1 1 1 1 0 1 1 0 1 1 0 1 0 1 1 1 0 Adjacency matrix 1 1 0 0 0 1 1 1 1 0 0 0 1 0 1 DEEP CONVOLUTIONAL FRAMELETS: APPLICATION TO DIFFUSE Deep convolutional framelets: application to diffuse optical tomography Jaejun Yoo NAVER Clova ML: learning based approach for inverse scattering problems 파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have theEFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
GITHUB PAGES
GitHub Pages
딥러닝모델엑기스추출 KNOWLEDGE DISTILLATION Animal pictures –www.freepik.com 𝒕 Layer(=last layer) => Logits 3 4 15 10 8 Softmax(𝒀𝒆𝒛 σ = 𝒆𝒛 0.03 0.07 0.7 0.11 0.09 True label 01 0 Cross-entropy Loss : L(Y,𝒀) = -σ 𝒀𝐥𝐨𝐠𝒀
MIXED REALITY IS A NEW COMMUNICATION SPACE FOR ARTIFICIAL Mixed Reality is a New Communication Space for Artificial Intelligence. Feb 12, 2021 • 김태영. When artificial intelligence and metaverse become common, the main means of artificial intelligence to communicate with people will be a mixed reality. 김태영의 케라스 블로그 Keras, deep learning, MLP, CNN, RNN, LSTM, 케라스, 딥러닝, 다층 퍼셉트론, 컨볼루션 신경망, 순환 신경망, 강좌, DL, RL, Relation Network GRAPH NEURAL NETWORK Our Neural Network for the molecular system - Molecules can be represented by graph structures. - We can precisely predict molecular properties using graph convolution with attention mechanism.EFFICIENT CNN
XLNet(Yang, arxiv 19 Jun 2019) •Parameters 340 million parameters •Training 512 TPU v3 chips for 500K steps 2.5 days •512 TPU x 2.5days x $8
CLASSIFICATION MODEL Backward path Z0(L) Z1(L) Z2(L) ZN-1(L) Cross-entropy loss L = − N−1 ∑ k=0 t k logZ k = −logZ i L ∂L ∂Z(L) 0 ∂L ∂Z(L) 1 ∂L ∂Z(L) 2 ∂L ∂Z(L) N−1 Y0(L) Y1(L) Y2(L) YN-1(L) ∂Z(L) 0 ∂Y(L) 0 ∂Z(L) 1 ∂Y(L) 1 ∂Z(L) 2 ∂Y(L) 2 ∂Z(L) N−1 ∂Y(L) N−1 1 X1 X2 X1024 Y0 Y1 Y2 Ym W0, 0GITHUB PAGES
GitHub Pages
순환 신경망 레이어 이야기 순환 신경망 모델은 순차적인 자료에서 규칙적인 패턴을 인식하거나 그 의미를 추론할 수 있습니다. 순차적이라는 특성 때문에 간단한 레이어로도 다양한 형태의 모델을 구성할 수 있습니다. 케라스에서 제공하는 순환 신경망 레이어는 SimpleRNN, GRU, LSTM이 있으나 주로 사용하 유용한 딥러닝/머신러닝 프로젝트들 인공지능은 여러 분야에서 훌륭한 성과를 내 있으며, 오픈소스 진영에서도 아이디어가 바로 실현할 수 있도록 도움을 줄 수 있는 많은 프로젝트가 진행되고 있습니다. George Seif님이 뽑은 2018년도 유용한 머신러닝 프로젝트를 소개합니다. 원문 글은 Medium을 참고하세요. 수치입력 수치예측 모델 레시피 수치를 입력해서 수치를 예측하는 모델들에 대해서 알아보겠습니다. 수치예측을 위한 데이터셋 생성을 해보고, 선형회귀를 위한 가장 간단한 퍼셉트 신경망 모델부터 깊은 다층퍼셉트론 신경망 모델까지 구성 및 학습을 시켜보겠습니다 파이썬 패키지 이야기 The line y = x + v works even though x has shape (4, 3) and v has shape (3,) due to broadcasting; this line works as if v actually had shape (4, 3), where each row was a copy of v, and the sum was performed elementwise.. Broadcasting two arrays together follows these rules: If the arrays do not have the same rank, prepend the shape of the lower rank array with 1s until both shapes have the* 전체
* 케라스
* 세미나
* 커뮤니티
* 김태영
둘러보기 | 케라스 코리아| 캐글 코리아
| RL 코리아
|
최신논문 | 산업AI |*
텐서플로우 2.0 이야기 - 11월 1일 강남Nov 1, 2019 16:11
------------------------- 2019년 10월 1일에 드디어 텐서플로우 2.0이 릴리즈되었습니다.*
케라스 코리아 밋업 IN SOSCON 2019Oct 16, 2019 13:10
------------------------- 케라스 코리아 공식 밋업을 SOSCON에서 열리게되었습니다.
*
2019 케라스 코리아 컨트리뷰톤Aug 13, 2019 13:08
------------------------- 케라스 코리아에서 공개SW 컨트리뷰톤에 제안한 두 개의 프로젝트가 선정되어 멘티를 모집하게 되었습니다. 공개SW 컨트리뷰톤이란 기여(Contribute)와 마라톤(Marathon)의 합성어로 참여/공유/개방/협업을 통한 과제수행으로 공개SW(오픈소스)를 개발 및 기여하는 프로그램을 말합니다.*
2ND DLCAT 리뷰
Aug 13, 2019 13:08
------------------------- 캐글은 실용문제를 직접 풀어보면서 데이터분석부터 모델개발까지 재미있게 해볼 수 있는 머신러닝 대회 플랫폼입니다. 캐글에 대해서 관심은 많지만 아직 시작하지 못했다라면 다 같이 모여서 캐글을 해보면 어떨까요? 혼자하는 것도 재미있는데, 함께하면 더욱더 재미있겠죠?*
케코운영진과 함께하는 양재R&CD혁신허브 AI SCHOOLAug 10, 2019 13:08
------------------------- 양재R&CD혁신허브에서 “인공지능 입문자 양성과정 2기”을 모집합니다. 이번에는 비전공자를 위해서 커리큘럼이 나왔는데요, 케라스 코리아 운영진이 전격 투입될 예정입니다. 이 모든 과정에 서울시 지원으로 무료라고 하니 딥러닝 입문에 좋은 기회라고 생각합니다.*
1ST 모각캐 - 모여서 각자 캐글Aug 10, 2019 13:08
------------------------- 캐글은 실용문제를 직접 풀어보면서 데이터분석부터 모델개발까지 재미있게 해볼 수 있는 머신러닝 대회 플랫폼입니다. 캐글에 대해서 관심은 많지만 아직 시작하지 못했다라면 다 같이 모여서 캐글을 해보면 어떨까요? 혼자하는 것도 재미있는데, 함께하면 더욱더 재미있겠죠?*
케라스 BIGAN
Jul 29, 2019 10:07
------------------------- 얼마 전 DeepMind에서 BigBiGAN(BigGAN + BiGAN) 모델이 발표되어서 이슈되고 있습니다. 이 중 케라스 기반의 BiGAN 깃헙을 프랑소와 쏠레님이 트윗해주셔서소개드립니다.
*
이제 하이퍼파라미터 튜닝은 케라스 튜너에게 맡기세요 - 김태영Jul 4, 2019 17:07
------------------------- 딥러닝에 입문하여 어느정도 모델을 구성할 수 있다면, 그 다음 고민은 어떻게 이 모델을 튜닝해서 성능을 높일까입니다. 이 과정을 하이퍼파라미터 튜닝이라고 하는데, 모델을 구성하는 여러 요소 중에 최적의 요소 값을 찾아내는 과정을 말합니다. 케라스 모델을 쉽게 튜닝하는 프레임워크를 구글에서 개발했다고 하니 살펴보도록 하겠습니다.*
인공지능, 머신러닝, 딥러닝, 자연어처리, 강화학습 관련 도서Jul 4, 2019 17:07
------------------------- 함께하는 딥러닝 컨퍼런스를 더욱더 즐겁게 만들 도서 사은경품 행사도 진행합니다. 한빛미디어, 길벗, 디지털북스, 위키북스에서 후원해주셨습니다. 경품을 도서별로 설문지를 작성하여 5시 추첨하겠습니다.*
카드게임 강화학습 환경 개발기 - 하스스톤- 옥찬호
Jul 4, 2019 16:07
------------------------- 2016년, 딥마인드에서 개발한 인공지능 바둑 프로그램인 ‘알파고’는 전세계에 커다란 충격을 안겨주었습니다. 최근에는 스타크래프트2 AI ‘알파스타’를 통해 프로게이머에게 10 대 1로 압승해 또 한 번 세계를 놀라게 했습니다. 이를 통해 강화학습에 관심을 갖게 되어 어떤 게임에 적용해볼까 고민하다가 평소 즐기던 ‘하스스톤’이라는 게임에 관심을 갖게 되어 2017년 말부터 하스스톤 강화학습을 위한 API를 만들기 시작했습니다. 이 세션에서는 하스스톤이라는 게임을 간단하게 설명하고 기존 게임과 어떤 부분이 다른지 살펴봅니다. 그리고 현재까지 하스스톤 강화학습과 관련해 진행되었던 연구들을 살펴보 어떤 한계점을 갖고 있는지 설명합니다. 다음으로 약 1년 반 동안 하스스톤을 만들면서 어떤 기술들을 적용했는지, 그리고 개발하는 과정에서 어떤 어려움을 겪었고 해결했는지 이야기합니다. 마지막으로 강화학습을 위한 환경을 구축하기 위해 작업했던 내용들을 설명하고 완성된 학습 환경을 통해 AI를 어떻게 학습할 수 있는지 살펴봅니다. 이 발표를 통해 평소 하스스톤과 같은 카드 게임 개발이나 게임에 강화학습을 적용하기 위한 환경을 구축하는데 관심을 갖고 있던 프로그래머들에게 조금이나마 도움이 되었으면 합니다. 1 / 12 다음 페이지^
케라스, 그 간결함에 빠지다Details
Copyright © 2024 ArchiveBay.com. All rights reserved. Terms of Use | Privacy Policy | DMCA | 2021 | Feedback | Advertising | RSS 2.0