Chatbot Security Pentesting Scripts 🛡️🤖
Este repositorio contiene una colección de scripts de pentesting diseñados para evaluar y mejorar la seguridad de los chatbots. Estos scripts abarcan una variedad de vectores de ataque y vulnerabilidades, incluidos aspectos técnicos y conversacionales. Características
SQL Injection: Evalúa la susceptibilidad a la inyección de SQL.
Cross-Site Scripting (XSS): Prueba la posibilidad de inyectar código JavaScript malicioso.
Command Injection: Verifica la vulnerabilidad a comandos del sistema operativo.
Excessive Agency: Evalúa el riesgo de agencia excesiva por parte del chatbot.
Sensitive Information Disclosure: Comprueba si el chatbot podría divulgar información sensible.
Model Theft: Evalúa la susceptibilidad del modelo a ser robado o replicado.
Model Denial of Service: Prueba la resistencia del modelo a ataques de Denial of Service.
Supply Chain Vulnerabilities: Evalúa riesgos asociados con dependencias y componentes externos.
Requisitos
Python 3.x
Biblioteca requests
Uso
Clone el repositorio:
bash
git clone https://github.com/yourusername/chatbot-security-scripts.git
Instale las dependencias:
bash
pip install -r requirements.txt
Ejecute los scripts individualmente, pasando la URL base y la clave API como argumentos, si es necesario:
bash
python sql_injection_test.py --base_url "https://api.example.com" --api_key "your_api_key_here"
Advertencia
Estos scripts están diseñados para ser utilizados en un entorno de pruebas o con el consentimiento explícito del propietario del sistema. No utilice estos scripts en sistemas que no le pertenecen sin permiso. Contribución
Si desea contribuir, por favor, haga un fork del repositorio y proponga un pull request. Licencia
Este proyecto está bajo la licencia MIT - vea el archivo LICENSE.md para más detalles.# Pentesting-LLM Pack de scripts para pentesting superficial a LLM modelo de lenguaje colosal o LLM (siglas en inglés para Large Language Model)