목록전체 글 (185)
yuns
LSTMs are used in a similar way as GRU through the propagation process based on a tree or a graph. Two extensions to the basic LSTM architecture The Child-Sum Tree-LSTM N-ary Tree-LSTM Each Tree-LSTM unit contains input and output gates $i_v$ and $o_v$, a memory cell $c_v$, and hidden state $h_v$ The Tree-LSTM unit abandons the single forget gate but uses a forget gate $f_{vk}$ for each child k,..

Introduction The trend to use the mechanism from RNNs like GRU ror LSTM in the propagation step to diminish the restictions from the vanilla GNN model and improve the effectiveness of the long-term information propagation across the graph. 6.1 Gated Graph Neural Networks GGNN which uses the Gate Recurrent Units (GRU) in the propagation step. unrolls the RNN for a fixed number of T steps and back..
programmers.co.kr/learn/courses/30/lessons/67257 문제 설명 IT 벤처 회사를 운영하고 있는 라이언은 매년 사내 해커톤 대회를 개최하여 우승자에게 상금을 지급하고 있습니다. 이번 대회에서는 우승자에게 지급되는 상금을 이전 대회와는 다르게 다음과 같은 방식으로 결정하려고 합니다. 해커톤 대회에 참가하는 모든 참가자들에게는 숫자들과 3가지의 연산문자(+, -, *) 만으로 이루어진 연산 수식이 전달되며, 참가자의 미션은 전달받은 수식에 포함된 연산자의 우선순위를 자유롭게 재정의하여 만들 수 있는 가장 큰 숫자를 제출하는 것입니다. 단, 연산자의 우선순위를 새로 정의할 때, 같은 순위의 연산자는 없어야 합니다. 즉, + > - > * 또는 - > * > + 등과 같이 연산..

문제 설명 초 단위로 기록된 주식가격이 담긴 배열 prices가 매개변수로 주어질 때, 가격이 떨어지지 않은 기간은 몇 초인지를 return 하도록 solution 함수를 완성하세요. 제한사항 prices의 각 가격은 1 이상 10,000 이하인 자연수입니다. prices의 길이는 2 이상 100,000 이하입니다. 입출력 예 prices return [1, 2, 3, 2, 3] [4, 3, 1, 1, 0] 입출력 예 설명 1초 시점의 ₩1은 끝까지 가격이 떨어지지 않았습니다. 2초 시점의 ₩2은 끝까지 가격이 떨어지지 않았습니다. 3초 시점의 ₩3은 1초뒤에 가격이 떨어집니다. 따라서 1초간 가격이 떨어지지 않은 것으로 봅니다. 4초 시점의 ₩2은 1초간 가격이 떨어지지 않았습니다. 5초 시점의 ₩3은..

spectral approach에서는 Laplacian eigenbasis을 이용하여 학습된 filter를 사용하게 되는데 이는 graph structure에 의존한다. spatial approach에서는 "define the convolution operation with differently sized neighborhoods and maintaining the local invariance of CNNs" 5.2.1 Neural FPS [NIPS18] Convolutional networks on graphs for learning molecular fingerprints Key Idea: degree에 따라 다른 weight matrices을 사용$$x=h_{v}^{t-1} + \sum_{i=1}..
여기서 convolution operation인 합성곱을 ($g_\theta$ ★ x) 와 같은 식으로 나타낸다. 5.1.1 Spectral Network convolution operation는 Fourier domain에서 정의된다. by computing the eigendecomposition of the graph Laplacian. a signal $x \in \mathbb{R}^N$( a scalar for each node)와 filter $g\theta = diga(\theta)$의 곱에 의해 나타낸다. $$g_\theta ★ x = Ug\theta(\Lambda)U^T x$$ U: the matrix of eigenvectors of the normalized graph Laplacia..
Graph Convolution Network는 크게 두가지 유형으로 나뉠 수 있다. Spectral Method 수학적인 수식을 이용하여 분석 Laplacian을 이용 푸리에 변환을 이용하여 인접노드들이 지나는 embedding vector들의 분포를 주파수 대역으로 변환 Spatial Method Inductive Learning supervised learning labeled training data만을 이용하여 학습 Transductive Learning unlabeled training data도 사용하여 prediction 진행
아이스크림 n, m = map(int, input().split()) graph = [] for i in range(n): graph.append(list(map(int, input()))) def dfs(x, y): if x = n or y >= m or y = n or ny >= m: continue if graph[nx][ny] == 0: continue if graph[nx][ny] == 1: graph[nx][ny] = graph[x][y] + 1 queue.append((nx, ny)) return graph[n - 1][m - 1] print(bfs(0, 0))