Vamos dar 3 Motivos….
1) Os Modelos de Linguagem alucinam e muito….!
Este é um problema sério. Ele acontece por conta da natureza aleatória da arquitetura das redes neurais que embasaram as LLMs. IAs vão errar e muito.
Quem usa IA sabe que elas são muito boas em pequenos projetos ou snippets de código. Agora aumentou a complexidade ?, esquece. Elas estão longe
2) As LLMs são congeladas no tempo. Elas foram treinadas até uma data de corte. Isto segnifica que elas não se atualizam rapidamente. Qualquer mudança em alguma biblioteca que você está utilizando venha a ter ela não vai conseguir refletir na mesma velocidade. Tenta por exemplo agora criar uma complexa ai no ChatGPT com Langchain. Ela na maioria das vezes vai fornecer códigos que funcionavam há seis meses ou um ano atrás mas que hoje já não funciona
3) o terceiro é o mais importante..SEM SABER PROHRAMAR, NÃO VAI NEM SABER O QUE PEDIR PARA ELA..iSSO vale para qualquer área da vida, não só programação..Poque a qualidade das respostas que vocé obtem de um modelo de linguagem é diretamente proporcional ao quanto você sabe sobre aquele assunto. Porque quanto mais você sabe mais técnico vai ser o teu prompt. Um leigo que não saiba programar e quer deservolver um sistema com IA, vai chegar para ela “ChatGPT” constroe para mim um sistema que tenha caixinha e eu consiga arrastar de um lado para outro; agora quando você domina programação você consegue especificar que arquitetura ela deveria utilizar. E caso ela erre voce vai saber pontualmente dizer aonde que ela errou. Se você não sabe programar e construir um sistema com IA e ela alucina em qualquer um dos pontos, o TEU PROJETO JÁ ERA.
