banner
Hogar / Blog / Auto
Blog

Auto

Jan 10, 2024Jan 10, 2024

Publicado

en

Por

Al comparar ChatGPT con agentes autónomos de IA como Auto-GPT y GPT-Engineer, surge una diferencia significativa en el proceso de toma de decisiones. Si bien ChatGPT requiere una participación humana activa para impulsar la conversación y brindar orientación basada en las indicaciones del usuario, el proceso de planificación depende predominantemente de la intervención humana.

Los modelos de IA generativa, como los transformadores, son la tecnología central de última generación que impulsa a estos agentes de IA autónomos. Estos transformadores están entrenados en grandes conjuntos de datos, lo que les permite simular capacidades complejas de razonamiento y toma de decisiones.

Muchos de estos agentes autónomos de IA surgen de iniciativas de código abierto lideradas por personas innovadoras que transforman los flujos de trabajo convencionales. En lugar de limitarse a ofrecer sugerencias, agentes como Auto-GPT pueden manejar tareas de forma independiente, desde compras en línea hasta la creación de aplicaciones básicas. Code Interpreter de OpenAI tiene como objetivo actualizar ChatGPT de simplemente sugerir ideas a resolver problemas activamente con esas ideas.

Tanto Auto-GPT como GPT-Engineer están equipados con la potencia de GPT 3.5 y GPT-4. Capta la lógica del código, combina varios archivos y acelera el proceso de desarrollo.

El quid de la funcionalidad de Auto-GPT reside en sus agentes de IA. Estos agentes están programados para ejecutar tareas específicas, desde tareas mundanas como la programación hasta tareas más complejas que requieren una toma de decisiones estratégica. Sin embargo, estos agentes de IA operan dentro de los límites establecidos por los usuarios. Al controlar su acceso a través de API, los usuarios pueden determinar la profundidad y el alcance de las acciones que puede realizar la IA.

Por ejemplo, si se le asigna la tarea de crear una aplicación web de chat integrada con ChatGPT, Auto-GPT divide de forma autónoma el objetivo en pasos procesables, como crear una interfaz HTML o programar un back-end Python. Si bien la aplicación produce estos mensajes de forma autónoma, los usuarios aún pueden monitorearlos y modificarlos. Como lo muestra el creador de AutoGPT @SigGravitas, es capaz de construir y ejecutar un programa de prueba basado en Python.

Actualización masiva para Auto-GPT: ¡Ejecución de código! 🤖💻

¡Auto-GPT ahora puede escribir su propio código usando #gpt4 y ejecutar scripts de Python!

Esto le permite depurar, desarrollar y mejorar de forma recursiva... 🤯 👇 pic.twitter.com/GEkMb1LyxV

– SigGravity (@SigGravity) 1 de abril de 2023

Si bien el siguiente diagrama describe una arquitectura más general de un agente de IA autónomo, ofrece información valiosa sobre los procesos detrás de escena.

Arquitectura de agente de IA autónomo

El proceso se inicia verificando la clave API de OpenAI e inicializando varios parámetros, incluida la memoria a corto plazo y el contenido de la base de datos. Una vez que los datos clave se pasan al Agente, el modelo interactúa con GPT3.5/GPT4 para recuperar una respuesta. Luego, esta respuesta se transforma a un formato JSON, que el Agente interpreta para ejecutar una variedad de funciones, como realizar búsquedas en línea, leer o escribir archivos, o incluso ejecutar código. Auto-GPT emplea un modelo previamente entrenado para almacenar estas respuestas en una base de datos, y las interacciones futuras utilizan esta información almacenada como referencia. El ciclo continúa hasta que la tarea se considera completa.

La configuración de herramientas de vanguardia como GPT-Engineer y Auto-GPT puede agilizar su proceso de desarrollo. A continuación se muestra una guía estructurada para ayudarle a instalar y configurar ambas herramientas.

Configurar Auto-GPT puede parecer complejo, pero con los pasos correctos, resulta sencillo. Esta guía cubre el procedimiento para configurar Auto-GPT y ofrece información sobre sus diversos escenarios.

Generación de claves API de IA abierta

Opciones de backend de memoria : Un backend de memoria sirve como mecanismo de almacenamiento para que AutoGPT acceda a datos esenciales para sus operaciones. AutoGPT emplea capacidades de almacenamiento a corto y largo plazo. Pinecone, Milvus, Redis y otras son algunas de las opciones disponibles.

Auto-GPT ofrece un amplio conjunto de argumentos de línea de comandos para personalizar su comportamiento:

AutoGPT en CLI

Una vez completadas las configuraciones, inicie Auto-GPT usando:

Para aquellos que buscan contener Auto-GPT, Docker ofrece un enfoque simplificado. Sin embargo, tenga en cuenta que la configuración inicial de Docker puede ser un poco complicada. Consulte la guía de instalación de Docker para obtener ayuda.

Continúe siguiendo los pasos a continuación para modificar la clave API de OpenAI. Asegúrese de que Docker se esté ejecutando en segundo plano. Ahora vaya al directorio principal de AutoGPT y siga los pasos a continuación en su terminal

Con Docker-componer:

Para mitigar los riesgos, opere Auto-GPT dentro de un contenedor virtual, como Docker. Esto garantiza que cualquier contenido potencialmente dañino permanezca confinado dentro del espacio virtual, manteniendo intactos sus archivos externos y su sistema. Alternativamente, Windows Sandbox es una opción, aunque se reinicia después de cada sesión y no logra conservar su estado.

Por seguridad, ejecute siempre Auto-GPT en un entorno virtual, asegurando que su sistema permanezca aislado de salidas inesperadas.

Teniendo en cuenta todo esto, todavía existe la posibilidad de que no pueda obtener los resultados deseados. Los usuarios de Auto-GPT informaron problemas recurrentes al intentar escribir en un archivo, y a menudo encontraron intentos fallidos debido a nombres de archivos problemáticos. Aquí hay uno de esos errores:Auto-GPT (versión 0.2.2) no agrega el texto después del error "write_to_file devuelto: Error: el archivo ya se ha actualizado

Se han analizado varias soluciones para solucionar este problema en el hilo de GitHub asociado como referencia.

Flujo de trabajo del ingeniero GPT:

El proceso de configuración de GPT-Engineer se ha resumido en una guía fácil de seguir. Aquí hay un desglose paso a paso:

1. Preparación del Medio Ambiente: Antes de sumergirse, asegúrese de tener listo el directorio de su proyecto. Abra una terminal y ejecute el siguiente comando

2. Clonar el repositorio:clon de git https://github.com/AntonOsika/gpt-engineer.git.

3. Navegar e instalar dependencias:Una vez clonado, cambie al directorio.ingeniero-cd-gpte instalar todas las dependencias necesariashacer instalar

4. Activar el entorno virtual:Dependiendo de su sistema operativo, active el entorno virtual creado.

5. Configuración – Configuración de clave API: Para interactuar con OpenAI, necesitará una clave API. Si aún no tienes uno, regístrate en la plataforma OpenAI y luego:

6. Inicialización del proyecto y generación de código:La magia de GPT-Engineer comienza con lamensaje_principalarchivo encontrado en elproyectoscarpeta.

Aquí, reemplace "sitio web" con el nombre del proyecto elegido.

Su código generado residirá en elespacio de trabajodirectorio dentro de la carpeta del proyecto.

7. Postgeneración: Si bien GPT-Engineer es poderoso, es posible que no siempre sea perfecto. Inspeccione el código generado, realice cambios manuales si es necesario y asegúrese de que todo funcione sin problemas.

Inmediato:

Configuración y ejecución de GPT-Engineer

Al igual que Auto-GPT, GPT-Engineer a veces puede encontrar errores incluso después de una configuración completa. Sin embargo, en mi tercer intento, accedí con éxito a la siguiente página web iluminada. Asegúrese de revisar cualquier error en la página de problemas del repositorio oficial de GPT-Engineer.

Aplicación Streamlit generada con GPT-Engineer

Una sola tarea ejecutada por Auto-GPT puede implicar numerosos pasos. Es importante destacar que cada uno de estos pasos podría facturarse individualmente, aumentando los costos. Auto-GPT puede quedar atrapado en bucles repetitivos y no lograr los resultados prometidos. Estos sucesos comprometen su fiabilidad y socavan la inversión.

Imagínese querer crear un ensayo breve con Auto-GPT. La extensión ideal del ensayo es de 8K tokens, pero durante el proceso de creación, el modelo profundiza en múltiples pasos intermedios para finalizar el contenido. Si está utilizando GPT-4 con una longitud de contexto de 8k, se le facturará por la entrada.$0.03 . Y para la producción, el costo sería$0.06 . Ahora, digamos que el modelo se encuentra con un bucle imprevisto, rehaciendo ciertas partes varias veces. No sólo el proceso se hace más largo, sino que cada repetición también aumenta el costo.

Para protegerse contra esto:

Establecer límites de usoen Facturación y límites de OpenAI:

Las capacidades de Auto-GPT, como se describe en su código fuente, tienen ciertos límites. Sus estrategias de resolución de problemas se rigen por sus funciones intrínsecas y la accesibilidad proporcionada por la API de GPT-4. Para debates en profundidad y posibles soluciones, considere visitar: Discusión sobre Auto-GPT.

La dinámica entre la IA y los mercados laborales está en constante evolución y está ampliamente documentada en este artículo de investigación. Una conclusión clave es que, si bien el progreso tecnológico a menudo beneficia a los trabajadores calificados, plantea riesgos para quienes realizan tareas rutinarias. De hecho, los avances tecnológicos pueden desplazar ciertas tareas pero al mismo tiempo allanar el camino para tareas diversas que requieren mucha mano de obra.

Se estima que el 80 % de los trabajadores estadounidenses podrían encontrar que los LLM (modelos de aprendizaje de idiomas) influyen en alrededor del 10 % de sus tareas diarias. Esta estadística subraya la fusión de la IA y los roles humanos.

El doble papel de la IA en la fuerza laboral:

Claramente, herramientas como ChatGPT, Auto-GPT y GPT-Engineer están a la vanguardia de la remodelación de la interacción entre la tecnología y sus usuarios. Con raíces en los movimientos de código abierto, estos agentes de IA manifiestan las posibilidades de la autonomía de las máquinas, simplificando las tareas desde la programación hasta el desarrollo de software.

A medida que avanzamos hacia un futuro en el que la IA se integra más profundamente en nuestras rutinas diarias, el equilibrio entre adoptar las capacidades de la IA y salvaguardar los roles humanos se vuelve fundamental. En un espectro más amplio, la dinámica del mercado laboral-IA pinta una imagen dual de oportunidades y desafíos de crecimiento, exigiendo una integración consciente de la ética tecnológica y la transparencia.

TinyML: aplicaciones, limitaciones y su uso en dispositivos IoT y Edge

He pasado los últimos cinco años sumergiéndome en el fascinante mundo del Machine Learning y el Deep Learning. Mi pasión y experiencia me han llevado a contribuir en más de 50 proyectos diversos de ingeniería de software, con un enfoque particular en AI/ML. Mi continua curiosidad también me ha atraído hacia el procesamiento del lenguaje natural, un campo que estoy ansioso por explorar más a fondo.

Más allá de ChatGPT; Agente de IA: un nuevo mundo de trabajadores

GPT-3: ¿Aprendizaje de pocas oportunidades para el modelo de lenguaje?

La gente teme a la IA, pero ChatGPT de Apple podría hacer que la IA sea amiga de todos

Explorando el intérprete de código ChatGPT de OpenAI: una inmersión profunda en sus capacidades

Las grandes tecnologías y la IA generativa: ¿las grandes tecnologías controlarán la IA generativa?

OpenAI enfrenta una caída de tráfico de casi el 20% en 3 meses

1. Requisitos previos:Entorno PythonClave API de OpenAIOpciones de backend de memoria2. Configurando tu espacio de trabajo:python3 -m venv myenvMac OS o Linuxfuente myenv/bin/activar3. Instalación:clon de git https://github.com/Significant-Gravitas/Auto-GPT.gitverificargit checkout estable-0.2.2cd Auto-GPTinstalación de pip -r requisitos.txt4. Configuración:.env.plantilla/Auto-GPT.env.envOPENAI_API_KEY=.env5. Instrucciones de línea de comando:Uso generalpython -m autogpt --ayudapython -m autogpt --ai-settings python -m autogpt --use-memory 6. Lanzamiento de Auto-GPTLinux o Mac./run.sh inicioventanas.\ejecutar.batIntegración de Docker (enfoque de configuración recomendado)ventana acoplable build -t autogpt.ventana acoplable ejecutar -it --env-file=./.env -v$PWD/auto_gpt_workspace:/app/auto_gpt_workspace autogptejecución de docker-compose --build --rm auto-gptejecución de docker-compose --rm auto-gpt --gpt3only--continuoAuto-GPT (versión 0.2.2) no agrega el texto después del error "write_to_file devuelto: Error: el archivo ya se ha actualizadoDefinición rápidaCodigo de GENERACIONRefinamiento y optimización1. Preparación del Medio Ambiente:sitio web mkdirsitio web del CD2. Clonar el repositorio:clon de git https://github.com/AntonOsika/gpt-engineer.git.3. Navegar e instalar dependencias:ingeniero-cd-gpthacer instalar4. Activar el entorno virtual:macOS/Linuxfuente venv/bin/activarventanasset OPENAI_API_KEY=[su clave API]5. Configuración – Configuración de clave API:macOS/Linuxexport OPENAI_API_KEY=[su clave API]ventanasset OPENAI_API_KEY=[su clave API]6. Inicialización del proyecto y generación de código:mensaje_principalproyectoscp -r proyectos/ejemplo/proyectos/sitio webmensaje_principalproyectos/sitio web de gpt-engineerespacio de trabajo7. Postgeneración:Inmediato:Gastos operacionales$0.03$0.06Establecer límites de usoLímite estrictoLímite suaveLimitaciones de funcionalidadEl impacto de la IA en el mercado laboralAspectos positivosPreocupaciones