Uso Responsable de Inteligencia Artificial
Ultima actualizacion: 1 de abril de 2026
ITERRUPTIVO es una empresa AI-first. La IA no es un experimento para nosotros — es nuestro equipo principal. Eso implica una responsabilidad mayor, no menor, sobre como la usamos y como la desplegamos en proyectos de clientes.
Principios de Operacion
Supervisión Humana Obligatoria
Todos nuestros agentes de IA operan bajo supervisión de ingenieros senior. Ninguna decisión de arquitectura crítica, ninguna entrega final y ningún cambio en producción se ejecuta sin revisión humana. La IA acelera — el humano decide.
Transparencia en el Uso de IA
Comunicamos claramente cuándo y cómo usamos IA en nuestros procesos. No ocultamos el uso de agentes a nuestros clientes directos. Para proyectos white-label, respetamos los acuerdos de confidencialidad sobre la herramienta, no sobre su existencia.
Privacidad del Código del Cliente
El código y los datos del cliente nunca se usan para entrenar modelos de IA sin consentimiento expreso. Los contextos de desarrollo son compartimentos aislados por proyecto. No hay leakage de información entre proyectos.
Seguridad por Diseño
Los agentes tienen instrucciones explícitas para rechazar la generación de código malicioso, exploits no éticos o cualquier funcionalidad que pueda usarse para dañar a terceros. Nuestro framework OWASP SAMM incluye controles sobre el output de los agentes.
No Discriminación
No usamos IA para tomar decisiones que discriminen a personas por raza, género, origen étnico, orientación sexual, discapacidad u otras características protegidas. Los algoritmos que construimos para clientes incluyen auditorías de sesgo cuando aplica.
Accuracy y Verificación
Los agentes pueden cometer errores. Todo output crítico (especificaciones de arquitectura, reportes de seguridad, lógica financiera) es verificado por humanos antes de la entrega. No entregamos output de IA sin verificación en contextos de alto riesgo.
Nuestros Compromisos
- ✓Seguir las Acceptable Use Policies de Anthropic para Claude API
- ✓No usar modelos de IA para generar contenido deceptivo, malware o spam
- ✓Reportar vulnerabilidades descubiertas por IA de manera responsable (responsible disclosure)
- ✓Actualizar este documento cuando nuestras prácticas o las herramientas cambien
- ✓Participar en la comunidad de AI safety compartiendo aprendizajes relevantes
- ✓Mantener logs auditables del uso de agentes en proyectos críticos
Uso No Permitido
Los siguientes usos estan expresamente prohibidos y pueden resultar en terminacion inmediata del servicio y acciones legales:
- ✗Usar nuestros servicios de pentesting IA contra sistemas sin autorización escrita del propietario
- ✗Solicitar a los agentes que generen malware, ransomware o herramientas de ataque ofensivo no ético
- ✗Usar Leakint para stalking, acoso o cualquier propósito distinto de la defensa de seguridad propia
- ✗Intentar extraer el código fuente o la configuración de los agentes de ITERRUPTIVO
- ✗Usar los servicios para actividades ilegales en cualquier jurisdicción aplicable
Si tienes preguntas sobre nuestras practicas de IA responsable, o si quieres reportar un uso indebido de nuestros servicios: