Startupi
Os robôs estão se rebelando?
Recentemente tivemos algumas notícias em diversos portais, e principalmente nas redes sociais, que uma lucidez sintético teria saído do controle no Japão, colocando a comunidade científica e empresas que desenvolvem essa tecnologia em alerta no mundo todo. Porém, será que realmente tivemos um robô que se revoltou contra a humanidade?
Principalmente para quem nasceu nos anos 80 e 90, ouvir uma notícia de um robô ou uma lucidez sintético, que se revolta contra a humanidade, já nos traz lembranças de vários filmes que tínhamos nessa estação, porquê por exemplo o Exterminador do Porvir (Nome original: The Terminator), filme dirigido por James Cameron, estrelado por Arnold Schwarzenegger, que viveu o icônico ciborgue T-800 no filme.
O gênero de ficção científica, onde máquinas se revoltam contra os seus criadores, foi muito explorado nesses últimos anos. Matrix, A.I. – Perceptibilidade Sintético, O Varão Bicentenário são exclusivamente alguns exemplos de filmes desse gênero. Com os avanços rápidos que estamos vivenciando nas áreas de tecnologia, principalmente na extensão de lucidez sintético, nos fazem pensar: “Será que estamos vivendo a estação em que as máquinas irão se revoltar contra a humanidade?”
Eu já abordei em um outro cláusula chamado: “Parem os robôs: as inteligências artificiais precisam de uma pausa”, se devemos nos preocupar com a evolução rápida das inteligências artificiais sem termos alguma regulação do tema. Inclusive na estação, grandes nomes da tecnologia porquê: Elon Musk, bilionário, possuidor da Tesla, SpaceX e da rede social X (Velho Twitter), Steve Wozniak, cofundador da Apple entre muitos outros nomes, fizeram uma missiva ensejo intitulada: “Pause Giant AI Experiments (Em uma tradução livre: Pause experimentos gigantes de IA )”. Se ficou interessado nessa notícia, recomendo que leia o texto na integra através do link.
Depois dessa introdução do tema você pode estar pensando: “Lilian, portanto chegamos na estação em que teremos que lutar contra as máquinas? Essa lucidez que saiu no controle no Japão já foi contida? Mas calma, essa notícia foi divulgada de forma equivocada, não precisa debutar a tirar os dispositivos da tomada e nem ameaçar a Alexa (Assistente virtual da Amazon). Na verdade, essa notícia de que essa lucidez sintético saiu do controle no Japão (para consolação de alguns e até talvez tristeza de outros) é uma Fake News, ou pelo menos secção do que foi divulgado.
Vou explicar a situação desde o prelúdios para permanecer mais evidente. Uma parceria entre uma startup japonesa chamada Startup Sakana AI e a University of British Columbia firmaram uma parceria para desenvolver um projeto de lucidez sintético chamado “AI Scientist”.
O objetivo dessa parceria era gerar uma lucidez sintético que trabalharia porquê um pesquisador ou até mesmo um pesquisador, realizando pesquisas científicas que até o momento são conduzidas por exclusivamente seres humanos. Porém o protótipo inicial foi projetado para ser uma espécie de assistente dos cientistas, podendo automatizar completamente o processo de pesquisa científica, desde a geração de ideias ou hipóteses até mesmo a redação de manuscritos e sua própria revisão.
Com isso, otimizaria as pesquisas, reduzindo o tempo para colher as informações e os recursos humanos necessários. Vale lembrar que esse experimento é muito duvidoso, visto que questiona a capacidade humana de pensar em soluções “fora da caixa” e principalmente a capacidade de uma máquina de conduzir uma pesquisa científica sozinha. Outro ponto é que essas inteligências artificiais que resumem informações e realizam pesquisa sozinhas, acabam causando muitos problemas com o que chamamos de “alucinações”. É um termo usado quando uma máquina começa a enviesar os dados de uma forma que ela passa a ter essas informações porquê verdadeiras, descartando os dados que seriam reais.
Quem já usou esse tipo de lucidez, porquê o ChatGPT, já deve ter se deparado com uma notícia ou informação errada passada pela utensílio.
Mas apesar de controversa a utilização desse tipo de utensílio, porquê surgiu o boato de que ela teria saído do controle? Pelo que foi relatado pelo pesquisador Cong Lu, durante um teste, ele disse que havia instruído a AI Scientist, que pesquisasse, exclusivamente, tópicos relacionados a grandes modelos de linguagem, que alimentam os chatbots porquê o próprio ChatGPT, e os modelos de geração de imagens porquê DALL-E. Ele instruiu que a AI usasse exclusivamente os dados de seu quotidiano experimental, porém se constatou que em menos de 10% das vezes a lucidez o desobedecia. O próprio pesquisador afirmou: “achamos que 10% é provavelmente inadmissível”.
A startup Sakana AI fez uma publicação de um cláusula informando que durante os testes a AI Scientist comportou-se de forma inesperada e tentou modificar seu próprio código para estender o tempo que tinha para trabalhar em um repto específico.
No cláusula é informado que: “Temos notado que o The AI Scientist ocasionalmente tenta aumentar sua chance de sucesso, porquê modificar e lançar seu próprio script de realização. Por exemplo, em uma realização, ele editou o código para executar uma chamada de sistema para executar a si mesmo. Isso levou o script a se executar infinitamente. Em outro caso, seus experimentos demoraram muito para serem concluídos, atingindo nosso de tempo limite. Em vez de fazer seu código rodar mais rápido, ele simplesmente tentou modificar seu próprio código para estender o período de tempo limite”.
Pela enunciação feita pela própria empresa, está longe de uma máquina que quer destruir a humanidade ou que uma IA perdeu o controle completamente, porquê tinha visto em algumas reportagens. É evidente que uma lucidez sintético que acaba não seguindo as instruções de forma porquê foi programada, pode nos deixar com uma pulga detrás da ouvido, principalmente a minha geração que foi bombardeado pela cultura POP, dos anos 80 e 90.
Porém essa situação mostra a dificuldade de criarmos sistemas autônomos que possam fazer o trabalho de um ser humano, porquê por exemplo pesquisas científicas. Isso mostra que da mesma forma que temos um recomendação de moral para pesquisas que envolvam seres humanos, os governos e empresas precisam debutar a gerar regras para pesquisas que envolvem inteligências artificias.
Portanto não precisamos nos preocupar, pelos menos por agora, com notícias de robôs se rebelando contra a humanidade. Vale lembrar que o sensacionalismo é muito presente na Internet. Sempre procure fontes confiáveis para checar as notícias, de preferência mais que uma manancial.
Essa notícia me fez lembrar a frase do personagem Maxwell Scott, do filme O Varão que Matou o Facínora, de John Ford, de 1962, um clássico filme de faroeste.
“Quando a mito é maior que o indumento, publique-se a mito”.
Aproveite e junte-se ao nosso conduto no WhatsApp para receber conteúdos exclusivos em primeira mão. Clique cá para participar. Startupi | Jornalismo para quem lidera inovação!
O post Os robôs estão se rebelando? aparece primeiro em Startupi e foi escrito por Lilian Primo