Incidents associés

J'apprécie ce que le MIT a fait ici. Cependant, le travail décrit dans l'article est inutile, trompeur, ou les deux. Toutes les méthodes d'entraînement que j'ai rencontrées dans la littérature ne maintiennent aucune sorte de mesure de l'information mutuelle entre les images de test et les images d'entraînement. En bref, le NN formé crache aveuglément des classifications avec une confiance égale pour les images de test qui sont très similaires à celles sur lesquelles il a été formé et les images de test qui sont très différentes de celles sur lesquelles il a été formé. Alimenter un blot Rorschach à un NN formé sur un subreddit gore n'est pas différent de l'alimentation statique sur les entrées qui, à son tour, n'est qu'un moyen détourné d'assembler un ensemble de sous-chaînes à partir du subreddit et d'appeler choice(1) sur cet ensemble.