My Authors
Read all threads
Assistindo essa aula do Geoffrey Hinton (e logo a seguir do Yann LeCunn). Vai virar post no blog. Vou tuitando em thread aqui alguns pontos interessantes a medida que vou assistindo =)

(começa aqui)
E descobrimos que design inteligente é ciência... 🤷‍♂️

Hinton diz q podemos fazer um computador realizar tarefas por meio do design inteligente (basicamente vc sentando a bunda no PC e programando, u little shit) ou fazendo o mesmo aprender por contra, que já é interessante...
As primeiras redes neurais foram criadas por pessoas como Turing, usando uma rede inicializada com pesos aleatórios e que "aprendiam" valores corretos por meio do aprendizado por reforço (basicamente com recompensas e punições), só que elas eram ineficientes
Backpropagation foi uma inovação. Numa rede neural queremos minimizar uma função de custo e ajustar pesos e vieses. Para isso, computamos gradientes que indicam como ajustar esses valores.

Esse algoritmo revitalizou as redes que andavam esquecidas q nem ator que vai pra Record
Hinton é troll pra caramba. Ele falou que existem três tipos de treinamento de redes neurais mas que só 2 funcionam bem. Este que funciona mal segundo ele é Aprendizado por Reforço (AR).

Muita gente riu pois AR possui muitas limitações e dá mt trabalho na prática =)
Ele apresentou uma proposta de treino: em um determinado momento, vc muda um peso e vê se o erro aumenta ou diminui.

Seria uma espécie de mutação + reforço. Ele explica que é ineficiente e que o backpropagation faz melhor. Hinton falando de reforço sou eu falando de Java rs
Ao invés de fazer tentativa e erro pra cada peso e ver o efeito na rede como um todo, vc computa gradientes que indicam pra qual "direção" os pesos devem mudar de valor e atualiza isso em paralelo pra toda a rede.

Leia a legenda pra ver a piada que ele fez com imprensa =)
Isso tudo é Cálculo de 1º ano de faculdade (pra vc que reclama que cálculo não serve pra nada... sem ele vc não veria deepfakes com a cara do Nicholas Cage nem vídeos legais comigo no Universo Discreto 😁)
Ótimo, só que para aplicações mais robustas, era necessário ter redes neurais maiores e para elas, não funcionava bem. Na época (anos 90) não se sabia direito pq, apenas havia suspeitas. Outros algoritmos funcionavam melhor e quem insistia nas redes neurais era considerado doido
Divirtam-se com esse slide recheado de ironia (já que Hinton ficou decepcionado por anos já que linguistas ridicularizavam sua ideia de que uma rede neural poderia aprender a traduzir coisas sem conhecimento a priori) e a excelente piada envolvendo homeopatia no terceiro ponto
Nesse ele chora as pitangas e faz uma série de piadas com o fato de papers da área serem rejeitados. É hilário ele dizer que teve um paper de deep learning rejeitado pq já havia outro e não fazia sentido ter tantos (2) no mesmo evento =)

Daí ele diz "vejam como anda o NIPS hoje"
Outro gênio ouviu que "redes neurais não devem ter espaço em uma conferência de Machine Learning"

LeCunn fez um trabalho que era o melhor do mundo na área e foi rejeitado pois pro revisor "tudo de Visão Computacional já se conhecia"

Sim, mt acadêmico top fala MUITA merda =)
No fim de 2000s, pesquisadores ligados a Hinton descobriram coisas que fizeram o backpropagation funcionar melhor, como desligar alguns neurônios (dropout), funções de ativação ReLU e pré-treino não supervisionado

Ao mesmo tempo, a quantidade de dados e GPUs fizeram a diferença!
(ok, por hoje está bom. se tudo correr bem, amanhã eu continuo 🙂)
Voltamos com o Hinton enaltecendo a importância de pesquisadores que ajudaram no crescimento de bases de dados rotuladas como a Fei-Fei Li e na criação de arquiteturas RISC como Hennesy e Pattersson. Sem isso, dificilmente teríamos Deep Learning hoje.

"Sobre o ombro de gigantes"
Para Hinton, a aplicação decisiva de Deep Learning foi o Acoustic Modeling que mostrou que uma rede neural profunda permitia reconhecimento de fala muito melhor do que métodos existentes. Isso impressionou quem era da área e um estudante dele levou o sistema pro Android em 2012
Hoje, todos os sistemas de reconhecimento de fala usam redes neurais profundas.

Vamos falar de imagens!

Um dos trabalhos de Hinton que baseava-se em redes neurais profundas de Yann LeCunn obteve resultados incríveis na ImageNet (base criada por Fei-Fei Li)

16% de erro só =)
Enquanto outros sistemas estavam obtendo até 25% de erro, o deles teve 16% e em 2015 chegou a 5%

Outros cientistas observaram os resultados e: "estávamos errados, isso realmente funciona, vamos voltar as redes neurais!"

Por sorte não temos cloroquiners na visão computacional
A seguir ele fala de tradução de idiomas usando redes neurais e como esse é o último prego no caixão pra IA Simbólica, pois era algo que na teoria seria ideal pra essa última.

Redes neurais aprendem gramática e semântica apenas observando, como crianças.

Acabou pra vc, LISP =)
E ele termina falando sobre como redes neurais poderiam melhorar com outras escalas de tempo para construir uma "memória de curto prazo" para fazê-las diferentes e melhores

Imagine que a rede neural possa "abrir um parênteses", concluir algo e voltar ao que estava fazendo antes
Vamos agora ao Yann LeCunn =)
O detalhe é que enquanto a aula de Hinton é "Deep Learning Revolution", a de LeCunn é "Deep Learning Revolution: The Sequel" =)
Basicamente redes neurais com treino supervisionado precisam de muitos dados e como era difícil ter isso e poder computacional pra processar tudo, um sistema que ele criou para ler dígitos de cheques só conseguia processar de 10% a 20% dos cheques norte-americanos
Redes Neurais Convolucionais que são tão boas para reconhecer imagens tiveram forte inspiração na biologia. Assim como o cérebro (visual cortex) filtra informação hierarquicamente (de dados brutos até combinações), as redes neurais convolucionais tb fazem isso.
LeCunn explica que as redes neurais convolucionais funcionam bem pra outros sinais como texto e fala pois são compostas por partes. Ele cita Einstein, que diz que "o que é mais misterioso no mundo é que ele é compreensível".

LeCunn atribui isto a natureza composta desses sinais.
E com a ajuda de uma rede neural convolucional que faz predição em cima de visão estéreo (uma visão 3D, pra saber se o pixel visto pode ser "atravessado" ou não) já foi possível fazer um robô andar e desviar de alunos de pós-graduação irritantes que se metem em seu caminho =)
E esse é o trabalho que Hinton citou que havia sido rejeitado por "não trazer nada de mais" pra Visão Computacional, apesar de ser estado da arte e capaz de saber exatamente se cada pixel da imagem é estrada, calçada, céu e mais diversas outras categorias... =)
LeCunn cita um trabalho recente do Facebook que usando uma rede neural conv que identifica cada objeto da cena e o marca com uma máscara. Coisas como chão, areia, grama, pessoa, veículo (mais de 100 categorias).

Daí ele menciona como algo do tipo é útil para carros autônomos
A U-net parte de um princípio similar e consegue "marcar" exatamente cada região de imagens médicas para diferentes análises, como é o caso de detecção de câncer em mamografias.

Muitas imagens legais =)
Hinton sacaneou o aprendizado por reforço mas LeCunn enalteceu como tem gente interessada nisso.

Só que a tentativa e erro pra uma rede aprender a jogar assim é tão grande que ela precisa jogar Atari por 80 horas e 20 milhões de partidas de xadrez chinês pra jogar bem de verdade
Você se acha mal jogador? Duvido que precise do tempo que a AlphaStar levou pra jogar bem

A AlphaStar é uma rede neural treinada pelo Deep Mind que levou 200 anos pra jogar Starcraft realmente bem

Prática leva a perfeição, mesmo que demore =)
Por isso que aprendizado por reforço (AR) é usado para jogos, pois no mundo real complica

Pra um sistema de AR pra carro autônomo funcionar, ele teria que atropelar velhinhos e cair de penhascos múltiplas vezes pra perceber que não foi boa ideia

Por isso que Hinton odeia AR =)
Aqui fica bem interessante. Pq humanos e animais aprendem tão rápido?

Pq uma rede neural precisa ser treinada durante meses e anos pra dirigir um carro se até ministros do Biroliro conseguem, teoricamente, aprender isso em poucas horas?

Aí entra a Psicologia =)
LeCunn cita um modelo do professor de modelos cognitivos Emmanuel Dupoux que mostra o tempo que leva para bebês aprenderem coisas.

Com 9 meses um bebê entende que objetos sem suporte caem (gravidade, basicamente)

Será que tem como máquinas aprenderem perceptualmente assim?
Para isso, tem a proposta de aprendizado auto supervisionado.

Você simplesmente mostra um pedaço de um dado (parte de vídeo, por exemplo) e o sistema reconstrói o que está faltando, seja pro futuro, passado...
Aqui vem uma analogia. Enquanto no Aprendizado por Reforço temos a cereja (pouca coisa pra prever) e a cobertura seria o Aprendizado Supervisionado (reconhecer imagens, por exemplo, que já é nível humano) o Aprendizado Auto Supervisionado teria q prever o resto e é MUITA coisa =)
Pra LeCunn, o futuro de Deep Learning é o Aprendizado Auto Supervisionado. Como Hinton menciona numa resposta que fez no Reddit, nós humanos aprendemos com muito menos dados do que as máquinas e elas tb precisam aprender a prever muito mais coisas por conta própria
Assim sendo, muita coisa precisa mudar para termos uma revolução de fato na IA.

"A revolução não será supervisionada (nem puramente por reforço)"

Tem até camisa com essa frase já =)
Já tem um pouco desse Aprendizado Auto Supervisionado em modelos como o Google Bert, que mesmo faltando palavras em frases, o sistema "completa" com o que parece mais adequado

Muito do gênero tem sido feito para imagens também =)
Para imagens é mais difícil pois há incerteza

Ao tentar treinar uma rede neural para prever o que vai acontecer num vídeo em que uma menina assopra as velas de um bolo, a rede produz uma imagem borrada que consiste na média de todos os futuros possíveis

Muito doido =)
Daí uma proposta é uma variável z que representa essa incerteza entre possíveis futuros.

Uma proposta para lidar com isso são as famosas redes generativas adversárias, em que uma rede treina outra, de maneira que essa segunda rede "ajuda" a primeira a escolher um possível futuro
E daí chegamos nas famigeradas faces criadas do zero por redes neurais pelas GANs =) vc basicamente entrega uma série de números aleatórios (aproximadamente 100) e o sistema "cospe" uma face criada, roupa criada... enfim, algo em cima de uma base de dados real
Já imaginou fazer um sistema que coleta fotos de várias camisas estilosas usadas pelo Faustão e ela gera outras camisas que poderiam ser vestidas pelo Faustão no futuro e que provavelmente não existem hj? 🤔
A seguir ele apresenta um trabalho dele em que um carro aprende a dirigir vendo outros carros, fazendo uma espécie de "projeção mental" do que pode ocorrer nos frames seguintes

Pelo que entendi isso não foi usado ainda em sistemas reais e não ficou claro para mim as limitações
Agora filosofia:

LeCunn apresenta exemplos de invenções que inspiraram ciências: telescópio levou a óptica, motor a combustão levou a termodinâmica, computadores levaram a ciência da computação...

Será que Deep Learning possibilitaria uma teoria ampla sobre inteligência?
Hora das perguntas!

Perguntaram pro Hinton sobre razão e lógica, se ele poderia expandir sobre como redes neurais lidam com isso.

Ele fala da dificuldade que são as redes neurais trabalharem com recursão. Pra isso, demanda algum tipo de memória que ainda não é resolvida bem.
Pra Hinton, o maior problema é que a memória de redes neurais atuais são outros bancos de neurônios que "guardam" o que ocorreu, mas isso não faz sentido do ponto de vista biológico. Não há memória associativa como em pessoas de verdade.
Já LeCunn afirma que a lógica clássica é discreta (valores como 0, 1, 2...) o que a torna incompatível com aprendizado que computa gradientes (redes neurais)

Também menciona o uso de redes neurais recorrentes para tal mas dessa maneira ainda não foi usada pra grandes problemas
Ele também falou de que existem trabalhos em que redes neurais produzem outras redes neurais já focadas para responder aquela pergunta específica.

Acho que com isso podemos finalmente sonhar com uma skynet, não é @milalaranjeira @avivimota @hallpaz @import_robs? rs
"Sabemos que redes neurais funcionam, mas não sabemos pq elas não funcionam, né?"

LeCunn diz "isso não é verdade, é claro que temos entendimento de que elas funcionam!"

"Lógico que com milhões de parâmetros é difícil fazer uma leitura mas temos entendimento teórico de tudo"
Já Hinton é mais irônico ao dizer que "o que a maioria das pessoas fazem, não temos ideia como funciona, então se vc trocar pessoas por redes neurais, não ficará pior" =)

"sem falar que podemos lidar melhor com o viés de redes neurais do que com o viés de pessoas" OUCH
Ele também fala que "pessoas tem intuições que dizem a elas o que fazer e, similarmente, redes neurais também tem intuições que dizem o que fazer"
"E sobre computação evolucionista?"

Hinton: "Se vc está num espaço com múltiplas dimensões, gradientes (cálculo, minimização de funções) funcionam melhor do que sem gradientes. A evolução não comporta isso pois a relação entre fenótipos e genótipos depende do externo (ambiente)"
"Fale mais sobre carros autônomos"

LeCunn: Muito marketing é feito sobre carros autônomos estarem aí, mas é mais difícil do que pessoas imaginam. Mesmo inteligência em nível humana precisa de soluções como Aprendizado Auto Supervisionado, mas essa é uma das primeiras montanhas.
"É fácil fazer uma demonstração que impressione, mas ter segurança ao ponto do número de fatalidades estar abaixo de 100 milhões de milhas por morte, é complicado, a quantidade de dados para treinar uma rede assim é quase impraticável"
E é isso, terminemos com algumas memes de IA

(e sim, zoem a vontade o Siraj Raval, ele pisou na bola e merece ser sacaneado)

Vou ver se faço mais threads assim =)
Explicando, LeCunn e Hinton dispensam apresentações. O irmão da foto é o sentdex, que faz vídeos excelentes programando coisas de Computação (e é uma inspiração pra mim). O crush é o Andrew Ng, popular professor de Machine Learning de Stanford. A namorada é a Fei-Fei Li e o Siraj
É um popular youtuber que faz vídeos programando coisas, dizendo como Machine Learning é fácil, pra qualquer um, não estresse tanto com a matemática...

Só q o ponto maior nem é esse, mas é que ele vendeu uns cursos e pisou na bola com os clientes. Daí ficou com o filme queimado
Missing some Tweet in this thread? You can try to force a refresh.

Keep Current with Lucas do Universo Discreto

Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

Twitter may remove this content at anytime, convert it as a PDF, save and print for later use!

Try unrolling a thread yourself!

how to unroll video

1) Follow Thread Reader App on Twitter so you can easily mention us!

2) Go to a Twitter thread (series of Tweets by the same owner) and mention us with a keyword "unroll" @threadreaderapp unroll

You can practice here first or read more on our help page!

Follow Us on Twitter!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3.00/month or $30.00/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!