Funcionários Virtuais Podem Ingressar no Mercado de Trabalho Este Ano, Prevê CEO da OpenAI

Image by TechCrunch, from Flickr

Funcionários Virtuais Podem Ingressar no Mercado de Trabalho Este Ano, Prevê CEO da OpenAI

Tempo de leitura: 4 minuto

Agentes de inteligência artificial, capazes de executar tarefas de forma autônoma, poderão integrar a força de trabalho já neste ano, transformando as operações de negócios, de acordo com o CEO da OpenAI, Sam Altman.

Com pressa? Aqui estão os Fatos Rápidos!

  • O agente de IA “Operator” da OpenAI automatizará tarefas como escrever código e reservar viagens.
  • A McKinsey prevê que 30% das horas de trabalho nos EUA poderiam ser automatizadas até 2030.
  • Altman expressa confiança na construção de inteligência artificial geral (AGI) e superinteligência.

Em uma publicação de blog publicada na segunda-feira, Altman afirmou que os funcionários virtuais alimentados por IA poderiam revolucionar a produção da empresa ao assumir tarefas tradicionalmente realizadas por humanos. The Guardian aponta que a Microsoft, maior apoiadora da OpenAI, já introduziu agentes de IA, com a gigante de consultoria McKinsey entre as primeiras a adotar a tecnologia.

“Acreditamos que, em 2025, podemos ver os primeiros agentes de IA “entrando para a força de trabalho” e alterando significativamente a produção das empresas. Continuamos a acreditar que colocar iterativamente ótimas ferramentas nas mãos das pessoas leva a ótimos resultados amplamente distribuídos,” escreveu Altman no post do blog.

A OpenAI supostamente está pronta para lançar um agente de IA, codinome “Operador”, ainda este mês. Espera-se que a ferramenta automatize tarefas como escrever códigos ou fazer reservas de viagens em nome dos usuários. Este movimento segue o lançamento do Copilot Studio da Microsoft, o Claude 3.5 Sonnet da Anthropic, os agentes de IA da Meta com corpos físico-similares, e os novos recursos de IA no Slack da Salesforce.

A McKinsey já está desenvolvendo um agente para agilizar as consultas dos clientes, incluindo o agendamento de acompanhamentos. A empresa projeta que, até 2030, até 30% das horas de trabalho em toda a economia dos EUA poderiam ser automatizadas, conforme observado pelo The Guardian.

O chefe de IA da Microsoft, Mustafa Suleyman, também expressou otimismo sobre agentes capazes de tomar decisões de compra. Em uma entrevista com a WIRED, ele descreveu testemunhar “demonstrações impressionantes” de IA realizando transações de forma independente, mas reconheceu desafios no desenvolvimento. Suleyman previu que essas capacidades avançadas poderiam surgir “em trimestres, não anos”.

O blog de Altman também abordou a confiança da OpenAI na criação de inteligência artificial geral (AGI) – sistemas de IA que superam a inteligência humana. “Agora estamos confiantes de que sabemos como construir AGI como tradicionalmente a entendemos”, ele escreveu.

Olhando além da AGI, Altman delineou as ambições da OpenAI para a “superinteligência”, que ele descreveu como ferramentas que poderiam acelerar significativamente a descoberta e inovação científica.

“Ferramentas superinteligentes poderiam acelerar massivamente a descoberta científica e a inovação muito além do que somos capazes de fazer por conta própria, e por sua vez, aumentar massivamente a abundância e a prosperidade”, escreveu Altman, expressando entusiasmo por um futuro onde tais avanços remodelam o potencial humano.

O rápido crescimento da IA no mercado de trabalho tem implicações amplas para a produtividade dos negócios e para a economia. No entanto, à medida que os agentes de IA evoluem, surgem novos riscos de segurança.

Uma pesquisa recente, publicada pelo Medium, destacou vulnerabilidades como entradas de usuário de múltiplos passos imprevisíveis, complexidades de execução interna, variabilidade em ambientes operacionais e interações com entidades externas não confiáveis.

Entradas de usuário obscuras ou incompletas podem desencadear ações não intencionadas, enquanto os processos internos dos agentes de IA muitas vezes não possuem observabilidade em tempo real, tornando as ameaças de segurança difíceis de detectar. Além disso, agentes que operam em ambientes diversos podem exibir comportamentos inconsistentes, e confiar em entidades externas sem a devida verificação pode expor os agentes a ataques.

Esses desafios destacam a necessidade de estruturas de segurança robustas para proteger agentes de IA e garantir sua implantação segura em cenários do mundo real.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...