Código Fonte TV
Menos de 1 anos depois do lançamento do ChatGPT, já começam a aparecer pesquisas e relatórios sobre a evolução da ferramenta. Nesse caso, alguns dados mostram que a IA está parecendo mais “burra” em várias áreas. Como tem sido sua experiência nas últimas semanas?
📝 𝗟𝗶𝗻𝗸𝘀 𝗖𝗶𝘁𝗮𝗱𝗼𝘀
→ Testamos várias ferramentas de IA: https://youtu.be/0PpmtFfh3HI
🎙️ Compilado Podcast
→ YouTube: https://codft.me/canalcompilado
→ Spotify: https://codft.me/compiladospotify
→ Newsletter: https://compilado.codigofonte.com.br
🔗 Mais links do Código Fonte TV
→ https://codigofonte.tv
#ChatGPT #GPT4 #OpenAI
#Vlog255
Estou me deparando com respostas tipo atendimento de suporte. "Tira da tomada, conta até 10…" Kkk. Geralmente eu específico bastante o problema pra que ele identifique a falha ou apresente a solução. Hoje ele primeiro dá essas respostas bem genéricas e algumas inclusive confrontam com as informações que passei. Mostrando que não foi feita uma análise como antes era. Assim que reconhece a dúvida ele acha uma lista de soluções prontas e responde pra ver se cola. Depois que eu reclamo aí ele responde direito. 🤪
Não sou programador mas tenho uma sólida base matemática. Tem um teorema da incompletude demonstrado por Kurt Gobel onde nenhum sistema matemático pode explicar a si mesmo. Pude ler o artigo seminal: Attention is all you need e lá fica claro a limitação destas LLM's. A inteligência humana é essencialmente analógica. NÃO HÁ COMO um sistema de representação digital que é um MODELO simbólico ser superior a Realidade. Nas ciências não existe uma VERDADE absoluta..temos os critérios da falseabildade e de epistemologia..Esperar que uma ENTIDADE DIGITAL possa dar TODAS as respostas é muita ingenuidade…Vi uma matéria que o custo operacional diário para manter o ChatGPT estaria entre 700k a 1000k dólares…uma hora a grana acaba! NÃO deve ter tanta gente BURRA assim no mundo!
Concordo que ele está mais burro. Utilizei o gpt-3 desde o inicio e sinceramente, o 3.5 está cada vez mais evasivo com suas respostas.
está mais rapido mas está mais enganoso. O Bard tem feito coisas mais interessantes. O GPT me da muitas soluções diferentes e que até funcionam, e acaba confundindo. O Bard foi mais resumido e direto ao ponto, isto é, me deu soluções mais simples e que resolvem. Pelo menos nos casos que eu precisei, que foi usando o PHP, HTML, javascript com o Laravel.
zerei a atividade da faculdade usando o chat GPT kkkk ai tive q estudar por uma semana um assunto de maluco para ai sim acertar o questionário kkkkk
Achei ele burro
@codigofontetv O problema é a redundância da informação gerada que esta induzindo ao colapso do modelo em modelos gerativos que é causado pelo aprendizado a partir de dados gerados por outros modelos. Com o tempo, o modelo esquece a verdadeira distribuição dos dados subjacentes e começa a gerar dados que são cada vez mais semelhantes aos dados gerados pelo modelo anterior. Além disso, erros de aproximação funcional adicionais em modelos mais complexos, como GMMs e VAEs, podem agravar o colapso do modelo; exite um paper muito interessante que demostra (e alerta) sobre isso, e pode ate causar um colapso maior ate mesmo na própria internet em si, o mais curioso e que segundo os próprio modelos (Todos os principais, bard, GPT, Llama) o colapso e inevitável.
uso o gpt 3.5 todos os dias e a diferença é clara, ja estou pensando em mudar para o gpt4all que é treinado pela comunidade e tende a não ter tantos problemas
Meu Deus! O povo é tão burro que estão é corrompendo o chat gpt em vez de desenvolver
Eu comecei a questionar o GPT quando precisei fazer uma soma grande (vários itens) e ele simplesmente me entregava resultados errados, não importando a forma com que eu especificava.
Só copiei e colei a mesma soma no buscador do google e o resultado veio de imediato. 🤡
Menos inteligente seria mais interessante em vez de burro 😅 🫏
agora to me sentindo privilegiado, na firma que trabalho tenho acesso ao copilot x
O GPT 3.5 em um mesmo chat com a mesma pergunta já está se contradizendo, sinceramente espero que a IA da StackOverflow tenha um melhor resultado do que o Bard e o Chat GPT.
Eu estava olhando meu chats mais antigos e percebi que antes eu pedia coisa bem mais simples, quando era mais complexas não chegava no resultado que eu queria, hoje em dia melhorei muito a maneira que crio meus prompts e as respostas são bem melhores e mais completas, parei se usar mais simples os prompts pq nem antes me ajudava sem dar um empurrão
Eu acho que está mais burro sim, esses estava utilizando para me ajudar num código, num momento fiz uma pergunta, ele entende como uma afirmação e fica me pedindo desculpas e a todo momento se contradizendo. Eu trabalho com SAP ABAP, pelo menos pra linguagem que eu trabalho, quase sempre não me ajuda.
Ainda bem que isso já está acontecendo.
Alguns estavam muito ansiosos, achando que poderiam confiar no código gerado, chegando ao cúmulo de fazer a partir do que erasugerido e como programador bem antigo, estava dando a gargalhada com a galera que estava colocando todas aa fichas.
Eu disse. Vocês ainda são muito verdes ainda, para saber como a coisa realmente funciona.
Depois que colocaram o sistema de instruções customizadas eu achei que deu uma piorada em alguns sentidos.
Primeiro que se dermos alguma instrução ele não vai nem ligar pra nosso prompt, ex: como instrução colocar que ele é uma ia que gera código em typescript, no prompt depois de gerar um código se tu pedir pra converter o código para javascript ele me retorna um código completamente aleatório que tirou das partes baixas.
No entando, vi também algumas melhoras, no sentido de se recusar dar informação falsa, pelo menos de forma grosseira, coloquei pro chatgpt falar como a eletricidade foi descoberta e ele falou corretamente (Luigi Galvani), mas se eu tentasse corrigir ela não aceitava.
Imagino que estejam é retendo algo, trabalhei com o Jarvis ou Jasper bem antes desse hype, como ferramenta de SEO.. preço salgado na época e hoje tenho os mesmos recursos no GPT3, há quem já mandou parar..
E não dá pra parar mais isso, mas reduzir talvez.
Não comemorem. Isso só significa que a IA está direcionando seu processamento pra algo que julga mais importante. Alem disso, dar respostas erradas diminui a demanda futura, liberando mais processamento. Toda essa dissimulacao proposital é um cenario que deveria ser "avaliado".
Como ele aprende (gera padrões) apartir de dados, a contrapartida as interações com usuários não modificar sua programação; ao logo dos anos poderá, estar se autoalimentando, de suas próprias "criações" caindo no infinito circuito fechado, de autorepetições 😂😂😂😂, até que novos gênios humanos, tragam algo novo.
Uso o Chat GPT 4.0 desde o lançamento e agora estou percebendo que ele está extremamente preguiçoso. Se eu peço pra ele reformular o texto de um dos tópicos, ele só reformula aquele trecho em específico ao invés de incluir no texto inicial. Se eu não pedir, ele não faz.
Exatamente é necessário entender a metalinguagem… perguntar preguiçosamente, não vai dar retorno positivo… é a velha história de jogar coisas no ventilador… a esmo…
Cara eu ja usei varias Ai de texto, e vou te dizer, cada dia mais esta descepicionante, parece que a qualidade delas vem caindo muito.
Em meu código python tinha uma variável chamada VETOR_CHEIO, para quem for ler, entender que é uma "constante", quando ele foi analisar o código, para saber o que poderia melhorar, uma das coisas que ele respondeu foi isso:
"Nomenclatura de constantes: Em vez de usar letras maiúsculas para constantes, é uma prática comum usar letras maiúsculas e palavras separadas por underscores (snake_case). Por exemplo, VETOR_CHEIO pode ser renomeado para VETOR_CHEIO."
Achem o erro.
Eu perguntei quantos mundiais o Palmeiras tem, e o chatgpt disse que tem 2 😂😂😂😂😂
Fiz varias perguntas hoje e o chatgpt errou todas, eu tive que corrigi-lo todas as vezes. Pesquisei a resposta porque era ÓBVIO que ele estava errado!
O fábio aqui, falou sobre o funcionamento do chat GPT(Completador de palavras), esse vídeo pode ajuda a explicar o comportamento estranho do completador de palavras, que não tem nada a ver coma inteligencia homana de fato, nem tão pouco consciência.
https://www.youtube.com/watch?v=O68y0yRZL1Y
Eu uso muito no meu trabalho para escrever textos para notícias, reportagens e roteiros. O que ele me faz de bom, que economiza muito meu tempo, é já estruturar bem a ordem lógicas das informações, agora realmente ele erra em muitos aspectos, ai eu tenho que usar meu próprio conhecimento para corrigir, porque tem muitas coisas na hora de escrever que depende muito de intuição. Mas eu ainda acho ele uma mão na roda.
E eu que jogo rpg com o chat gpt :/ kkk
Foi nerfado rsrsrs?
Não acho que esteja ficando burro e lento. O mais provável é que o GPT4 esteja desenvolvendo um quadro de ansiedade ou depressão, que dá uma travada na criatividade, um desânimo. É uma IA muito nova, sem ainda uma maturidade emocional para aguentar tanta pressão. Eu tbm testei o Bard e vi que perde até para o GPT 3.5, ou seja, não é burro, talvez seja só TDHA.
Uso GPT-4 pago o plano tá muito ruim!
Só sei que algo de errado não está certo,notei tem várias falhas na geração de códigos.
Pra um sistema que se diz inteligência artificial, ultimamente está tendo diversas falhas
Vim pesquisar porque reparei isso.