Entendendo Como ChatGPT Funciona - Rodando sua Própria IA
Entendendo Como ChatGPT Funciona - Rodando sua Própria IA
Não, AGI não está próximo de acontecer.

Quais são os limites da atual tecnologia de transformadores generativos pré-treinados, vulgo GPT?
O que são os tais "modelos" que eles usam?
O que são os tais "parâmetros".
Porque as IAs parecem humanas nas respostas?
IAs vão substituir programadores??
Como é possível conseguir rodar um clone de ChatGPT na sua própria máquina, totalmente offline?

Vamos responder tudo isso e muito mais.

## Capítulos

00:01:07 - CAP 01 - Minha IA PESSOAL e OFFLINE - text-generation-webui
00:06:37 - CAP 02 - Introdução a MODELOS - Como IA Aprende?
00:10:09 - CAP 03 - Auto-Corretor de Teclado de Celular - Cadeias de Markov
00:15:34 - CAP 04 - 170 TRILHÕES de parâmetros - Maior que nosso cérebro?
00:20:28 - CAP 05 - De Markov a IA - O que são Tensors?
00:30:53 - CAP 06 - A Revolução da Auto-Atenção - O que são Transformers?
00:35:24 - CAP 07 - Hardware pra Treinar IA - NVIDIA
00:42:09 - CAP 08 - Parâmetros e Sinapses são equivalentes? - Quantização
00:49:42 - CAP 09 - Estamos próximos de AGI? IAs são Inteligentes?
00:52:10 - CAP 10 - Controlando Criatividade de IAs - Temperatura
01:00:27 - CAP 11 - A Avó do ChatGPT - Eliza
01:04:29 - CAP 12 - IAs que fazem Imagens - Diffusion
01:09:31 - CAP 13 - Discutindo PROMPTs - LangChain
01:13:08 - CAP 14 - IAs vão matar programadores? Quais os Limites?
01:22:15 - CAP 15 - Virando "Programador 10x" com auxílio de IAs - Copilot
01:23:47 - CAP 16 - CONCLUSÃO - O começo da BOLHA
01:28:18 - Bloopers

## Links

* [Introducing LLaMA: A foundational, 65-billion-parameter language model (facebook.com)](
* [NVIDIA/Megatron-LM](
* [oobabooga/text-generation-webui](
* [TheBloke/Wizard-Vicuna-30B-Uncensored-GPTQ](
* [Neural networks - YouTube](
* [GPT-4 Will Have 100 Trillion Parameters — 500x the Size of GPT-3 | by Alberto Romero | Towards Data Science](
* [MIT Deep Learning 6.S191 (introtodeeplearning.com)](
* [DF Direct Special: Starfield Tech Breakdown - 30FPS, Visuals, Rendering Tech + Game Impressions - YouTube](
* [NVIDIA Made a CPU.. I’m Holding It. - YouTube](
* [(2) Artem Andreenko 🇺🇦 on Twitter: "I've sucefully runned LLaMA 7B model on my 4GB RAM Raspberry Pi 4. It's super slow about 10sec/token. But it looks we can run powerful cognitive pipelines on a cheap hardware. " / Twitter](
* [Émile Borel and the Infinite Monkey Problem | SciHi Blog](
* [GitHub - codeanticode/eliza: The classic Eliza psychologist program, implemented as a Processing library.](
* [Stories • Instagram](
* [TheBloke (Tom Jobbins) (huggingface.co)](
* [Introduction | 🦜️🔗 Langchain](

* Podcast:
* Transcript:

おすすめの記事