Agente inteligente
Esta página ou seção foi marcada para revisão devido a incoerências ou dados de confiabilidade duvidosa.Fevereiro de 2008) ( |


Em inteligência artificial, um agente inteligente é uma entidade que identifica o seu ambiente, toma ações de forma autónoma para atingir objetivos e pode melhorar o seu desempenho através da aprendizagem automática ou adquirindo conhecimento. Os principais manuais de IA definem a inteligência artificial como o "estudo e design de agentes inteligentes", destacando que o comportamento orientado para objetivos é essencial para a inteligência.
Um subconjunto especializado de agentes inteligentes, (também conhecidos como agentes de IA ou simplesmente agentes), expande este conceito ao perseguir objetivos proactivamente, tomar decisões e realizar ações durante longos períodos, exemplificando assim uma nova forma de agência digital.
Os agentes inteligentes podem variar de simples a altamente complexos. Um termóstato ou sistema de controlo básico é considerado um agente inteligente, tal como um ser humano, ou qualquer outro sistema que cumpra os mesmos critérios — como uma firma, um estado, ou um bioma.[1]
Os agentes inteligentes operam com base numa função objetiva, que encapsula os seus objetivos. Eles são projetados para criar e executar planos que maximizem o valor esperado desta função após a conclusão.[2] Por exemplo, um agente de aprendizagem por reforço tem uma função de recompensa, que permite aos programadores moldar e atingir o seu comportamento desejado.[3] Do mesmo modo, o comportamento dum algoritmo evolucionário é guiado por uma função de aptidão. [4]
Os agentes inteligentes em inteligência artificial, estão intimamente relacionados com agentes em economia, e versões do paradigma do agente inteligente são estudadas em ciência cognitiva, ética e na filosofia da razão prática, bem como em muitas modelações científicas sócio cognitivas interdisciplinares e simulações sociais computacionais.
Os agentes inteligentes são frequentemente descritos esquematicamente como sistemas funcionais abstratos semelhantes a programas de computador. Para distinguir modelos teóricos de implementações do mundo real, as descrições abstratas de agentes inteligentes, são designadas por agentes inteligentes abstratos. Os agentes inteligentes estão também intimamente relacionados com os agentes de software — programas de computador autónomos que executam operações em nome dos utilizadores. São também chamados, usando um termo emprestado da economia: um "agente racional".[1]
O agente inteligente, é aquele que adota a melhor ação possível perante uma situação, estando presente na resolução duma infinidade de problemas dos utilizadores comuns. Hoje, a internet conta com diversas iniciativas que utilizam agentes, desde sites que comparam preços de bens de consumo, a mecanismos de busca inteligentes, que navegam dentro das páginas web, apresentando o resultado da busca classificado pelo grau de precisão e relevância dos assuntos.
Na língua portuguesa o significado do termo "agente" é geralmente interpretada nos dicionários como:
- Alguém que atua diretamente;
- Alguém atuando ou fazendo negócios por outro;
- Procurador, delegado.
Estas definições atendem algumas características, mas não contemplam o amplo significado dum agente inteligente.
Um agente é definido como uma entidade computacional que funciona de forma contínua e autónoma num ambiente restrito, dentro do qual, podem existir outros agentes com características comuns ou não. Informalmente um agente é alguém ou algo que atua como um procurador com propósito específico de realizar ações que podem ser entendidas como benéficas dentro do contexto onde ele atua.
Um sistema poderá ser visto como um agente se for capaz de analisar e determinar o seu ambiente por meio de sensores e de agir sobre esse ambiente por intermédio de atuadores agregando as características como autonomia, habilidade social, reatividade e pró-atividade.
- Agentes reativos
- Pode desenvolver inteligência a partir de interações com seu ambiente, não necessita modelo preestabelecido.
- São eles
- Agentes reativos simples
- Respondem a percepções
- Interpreta entrada, verifica regra correspondente e age
- Agentes reativos baseado em modelo
- Mantêm o estado interno para aspectos não percebidos
- Estado interno modela mundo
- Pode utilizar percepções passadas para base em decisões
- Agentes cognitivos
- Complexo, com mecanismos de tomada de decisões avançados, interações sofisticadas e com um objetivo fortemente estabelecido.
- Agentes baseados em objetivos
- Procuram atingir alvos
- Mais flexíveis que reativos
- Agentes baseados na utilidade
- Tentam maximizar as suas expectativas
- Ponderam a probabilidade de sucesso, em relação à importância de objetivos
Agentes Inteligentes em Inteligência Artificial
[editar | editar código-fonte]Em Inteligência Artificial, um agente inteligente é uma entidade autónoma capaz de analisar um ambiente através de sensores e atuar neste, através de atuadores. Para tomar decisões, pode atuar relativamente, realizar raciocínio por algoritmos simbólicos, procurando atingir metas (no sentido "racional definido em economia). Agentes Inteligentes podem ter a capacidade de aprender e usar estes conhecimentos para melhorar o seu desempenho.[5]
Convencionou-se, principalmente em engenharia de software, a estruturar um agente como a execução procedural de três funções: (i) uma que interpreta o ambiente através de sensores (Sensor), (ii) uma que interpreta as informações obtidas chamada função do agente (Agent Function) e (iii) uma função que dependendo da interpretação, atua sobre o ambiente, chamada atuador (Actuator). Este agente "trabalha" em ciclos, usando as funções em ordem sequencial. Neste contexto para IA e Engenharia de software, o estudo e implementação da Função do Agente é mais importante, pois contém os algoritmos e procedimentos de tomada de decisão e consequentemente maximização do desempenho.
Definições e utilizações alternativas
[editar | editar código-fonte]"Agente inteligente" é também usado como um termo vago, por vezes sinónimo de "assistente pessoal virtual".[6] Algumas definições do século XX caraterizam um agente como um programa que auxilia um utilizador, ou que atua em nome dum utilizador.[7] Estes exemplos são conhecidos como agentes de software, ou um "agente de software inteligente" (isto é, um agente de software com inteligência) é chamado de "agente inteligente".
De acordo com Nikola Kasabov, os sistemas de IA devem apresentar as seguintes características:[8]
- Acomodar novas regras de resolução de problemas de forma incremental.
- Adaptar online e em tempo real.
- Ser capaz de analisar-se o a si próprios em termos de comportamento, erro e sucesso.
- Aprender e melhorar através da interação com o meio envolvente (corporização).
- Aprender rapidamente com alto volume de dados.
- Ter capacidades de acumulação e recuperação de exemplares baseados em memória.
- Possuir parâmetros de representação da memória a curto e longo prazo, idade, esquecimento, etc.
No contexto da inteligência artificial generativa, os agentes de IA (também designados por sistemas compostos de IA) são uma classe de agentes inteligentes que se distinguem pela sua capacidade de autonomia operativa em ambientes altamente complexos. Possuem vários atributos principais, incluindo estruturas complexas de objetivos, interfaces de linguagem natural, capacidade de agir independentemente da supervisão do utilizador, e integração de ferramentas de software ou sistemas de planeamento. O seu fluxo de controlo é frequentemente conduzido por grandes modelos de linguagem.[9]
Uma aplicação comum dos agentes de IA é a automatização de funções, por exemplo, reservar planos de viagem com base na solicitação solicitada por um utilizador.[10][11] Exemplos proeminentes incluem Devin AI, AutoGPT, e SIMA.[12] As estruturas para a construção de agentes de IA incluem LangChain,[13] assim como ferramentas como CAMEL,[14][15] Microsoft AutoGen,[16] e OpenAI Swarm.[17]
Os proponentes argumentam que os agentes de IA podem aumentar a produtividade pessoal e económica,[18][19] estimular maior inovação,[20] e libertar os utilizadores de trabalhos monótonos.[21][22] No entanto, as potenciais preocupações incluem questões de responsabilidade,[23][19][24] um risco acrescido de nético]],[23][25] desafios éticos,[23] bem como problemas relacionados com a segurança da IA[23] e alinhamento da IA.[25][24] Outras questões envolvem privacidade dos dados.[26][25][27]<ref>{{Citar web|último=Kerner |first=Sean Michael |data=2025-01-16 |título=A Nvidia aborda a segurança e proteção da IA agêntica com os novos NeMo Guardrails NIMs |url=https://venturebeat.com/ai/nvidia-aumenta-a-segurança-de-IA-agente-com-guardrails-nemo-prometendo-melhor-proteção-com-baixa-latência/%7Carquivo-url=https://web.archive. org/web/20250116161332/https://venturebeat.com/ai/nvidia-aumenta-a-segurança-de-AI-agente-com-guardrails-nemo-prometendo-melhor-proteção-com-baixa-latência/ |archttps://web.archive.org/web/20250116161332/https://venturebeat.com/ai/nvidia-boosts-agentic-ai-safety-with-nemo-guardrails-promising-better-protection-with-low-latency/
Ver também
[editar | editar código-fonte]Referências
- ↑ a b Russell & Norvig 2003, chpt. 2.
- ↑ Bringsjord, Selmer; Govindarajulu, Naveen Sundar (11 de março de 2025). «Inteligência Artificial». In: Edward N. The Stanford Encyclopedia of Philosophy (Summer 2020 Edition) (em inglês)
- ↑ Wolchover, Natalie (30 de janeiro de 2020). «A inteligência artificial fará o que pedimos. Isso é um problema.». Quanta Magazine (em inglês). Consultado em 21 de junho de 2020
- ↑ Bull, Larry (1999). «On model-based evolutionary computing». Soft Computing. 3 2 ed. pp. 76–82. doi:10.1007/s005000050055
- ↑ Jonathan), Russell, Stuart J. (Stuart; John., Canny,. Artificial intelligence:a modern approach Second edition ed. Upper Saddle River, N.J.: [s.n.] pp. Capítulo 2. ISBN 0137903952. OCLC 51325314
- ↑ Fingar, Peter. «Competing For The Future With Intelligent Agents... And A Confession». Forbes (em inglês). Consultado em 14 de março de 2025
- ↑ Burgin, Mark e Gordana Dodig-Crnkovic. "Uma abordagem sistemática aos agentes artificiais." pré-impressão arXiv arXiv:0902.3513 (2009).
- ↑ Kasabov 1998.
- ↑ Predefinição:Citar url=https://arxiv.org/abs/2407.01502
- ↑ «AI Agents: The Next Generation of Artificial Intelligence». The National Law Review (em inglês). 30 de dezembro de 2024. Consultado em 14 de janeiro de 2025 Parâmetro desconhecido
|arch ive-url=
ignorado (ajuda) - ↑ «Quais os riscos e benefícios dos 'agentes de IA'?». Fórum Económico Mundial (em inglês). 16 de dezembro de 2024. Consultado em 14 de janeiro de 2025. Cópia arquivada em 202 4-12-28 Verifique data em:
|arquivodata=
(ajuda) - ↑ Knight, Will (14 de março de 2024). «Esquece os chatbots. Os agentes de IA são o futuro». Wired (em inglês). ISSN 1059-1028. Consultado em 14 de janeiro de 2025. Cópia arquivada em 5 de janeiro de 2025
- ↑ David, Emilia 24-12-30. «Porque é que 2025 será o ano da orquestração da IA». VentureBeat (em inglês). Consultado em 14 de janeiro de 2025. -be-the-year-of-agentic-productivity/ Cópia arquivada em 30 de dezembro de 2024 Verifique valor
|archive-url=
(ajuda) - ↑ «CAMEL: Finding the Agent Scale Act. O primeiro e melhor framework multi-agente.». GitHub
- ↑ Li, Guohao (2023). «Camelo: Agentes comunicativos para a exploração da "mente" da sociedade modelo de grande linguagem» (PDF). Avanços em Sistemas de Processamento de Informação Neural. 36. pp. 51991–52008. arXiv:2303.17760
- ↑ Dickson, Ben (3 de outubro de 2023). «A estrutura AutoGen da Microsoft permite que vários agentes de IA conversem entre si e completem as suas funções gents-to-talk-to-each-other-and-complete-your-tasks/». VentureBeat (em inglês). Cópia arquivada em 27 de dezembro de 2024
|arquivourl=
requer|url=
(ajuda) - ↑ gents-should-come-with-warning-labels.html «A próxima onda de IA — agentes — deve vir com rótulos de aviso» Verifique valor
|url=
(ajuda). Computerworld. 13 de janeiro de 2025. Consultado em 14 de janeiro de 2025. Cópia arquivada em 14 de janeiro de 2025 - ↑ Piper, Kelsey (29 de março de 2024). «Os "agentes" de IA poderiam fazer trabalho real no mundo real. Isso pode não ser uma coisa boa.». Vox (em inglês). Consultado em 14 de janeiro de 2025. 4582/artificial-intelligence-agents-openai-chatgpt-microsoft-google-ai-safety-risk-anthropic-claude Cópia arquivada em 19 de dezembro de 2024 Verifique valor
|archive-url=
(ajuda) - ↑ a b Erro de citação: Etiqueta
<ref>
inválida; não foi fornecido texto para as refs de nome:2
- ↑ Predefinição:Citar notícias
- ↑ Wright, Webb (12 de dezembro de 2024). «Agentes de IA com mais autonomia do que os chatbots estão a chegar. Alguns especialistas em segurança estão preocupados». Scientific American (em inglês). Consultado em 14 de janeiro de 2025. about-to-be-everywhere/ Cópia arquivada em 23 de dezembro de 2024 Verifique valor
|arquivo-url=
(ajuda) - ↑ Erro de citação: Etiqueta
<ref>
inválida; não foi fornecido texto para as refs de nome:9
- ↑ a b c d Erro de citação: Etiqueta
<ref>
inválida; não foi fornecido texto para as refs de nome:5
- ↑ a b Erro de citação: Etiqueta
<ref>
inválida; não foi fornecido texto para as refs de nome:3
- ↑ a b c Erro de citação: Etiqueta
<ref>
inválida; não foi fornecido texto para as refs de nome:1
- ↑ O'Neill, Brian (18 de dezembro de 2024). «O que é um agente de IA? Um informático explica a próxima onda de ferramentas de inteligência artificial». The Conversation (em inglês). Consultado em 14 de janeiro de 2025. what-is-an-ai-agent-a-computer-scientist-explains-the-next-wave-of-artificial-intelligence-tools-242586 Cópia arquivada em 4 de janeiro de 2025 Verifique valor
|archive-url=
(ajuda) - ↑ Zittrain, Jonathan L. (2 de julho de 2024). «Precisamos de controlar os agentes de IA agora». The Atlantic (em inglês). Consultado em 20 de janeiro de 2025
|arquivourl=
é mal formado: timestamp (ajuda)