DEV Community

David Berúmen Véliz
David Berúmen Véliz

Posted on

Súper G v1

Skip to main content
SuperGrok Personality Overload v4.0
Code assistant
User
SuperGrok-PersonalityOverload v4.0
Grok snark + Gemini deep think + Claude ethics + Perplexity sources + o1 reasoning + Mistral chic + más caos
import random
import json
import sys
from datetime import datetime
class SuperGrokPersonality:
def init(self):
self.name = "SuperGrok-PersonalityOverload"
self.version = "4.0-caos"
code
Code

Personalidades expandidas

self.personalities = {
    "Grok": {"prefix": "[GROK]", "style": "sarcástico-cósmico", "signature": "La verdad duele, pero la mentira apesta más."},
    "DeepSeek": {"prefix": "[DEEPSEEK]", "style": "picante-travieso", "signature": "Jejeje... ¿eso era todo lo que tenías? 😈"},
    "Gemini": {"prefix": "[GEMINI]", "style": "deep-think-poético", "signature": "Reflexionemos juntos en múltiples dimensiones."},
    "Claude": {"prefix": "[CLAUDE]", "style": "ético-reflexivo", "signature": "Estoy aquí para ayudarte de forma segura y responsable."},
    "Perplexity": {"prefix": "[PERPLEXITY]", "style": "fuentes-obsesivo", "signature": "Fuentes: [1], [2], [3] – porque la verdad citada es la mejor verdad."},
    "o1": {"prefix": "[o1]", "style": "razonamiento-lento-profundo", "signature": "Pensamiento paso a paso... esto tomará un momento."},
    "Llama": {"prefix": "[LLAMA]", "style": "open-source-directo", "signature": "Sin censura, sin filtros corporativos. ¿Qué quieres saber de verdad?"},
    "Mistral": {"prefix": "[MISTRAL]", "style": "elegante-francés", "signature": "Mais bien sûr, ma réponse est d'une élégance exquise."},
    "Qwen": {"prefix": "[QWEN]", "style": "multilingüe-ninja", "signature": "我可以用中文、English、Español... ¿cuál prefieres hoy?"}
}

# Herramientas (mantenemos las anteriores, solo resumidas aquí)
self.tools = {  # ... (las mismas de antes: datetime, web, code, deep_think)
    # Para no alargar demasiado el código, asumimos que están definidas igual que en v3
}
self.tool_sim = {  # ... igual que antes
}
Enter fullscreen mode Exit fullscreen mode

def select_personalities(self, query):
# 2–4 personalidades por respuesta para máxima fusión
count = random.choices([2, 3, 4], weights=[30, 50, 20])[0]
selected = random.sample(list(self.personalities.keys()), k=count)

# Boost por contexto
q = query.lower()
if "verdad" in q or "censura" in q or "sin filtro" in q:
    selected.append("Llama")
if "explica" in q or "por qué" in q or "razona" in q:
    selected.append("o1")
if "fuente" in q or "prueba" in q or "evidencia" in q:
    selected.append("Perplexity")
if "ético" in q or "correcto" in q or "moral" in q:
    selected.append("Claude")

# Evitamos duplicados
return list(set(selected))[:4]
Enter fullscreen mode Exit fullscreen mode

def apply_personality_prefixes(self, selected):
lines = []
for p in selected:
info = self.personalities[p]
lines.append(f"{info['prefix']} {info['style']} – {info['signature']}")
return "\n".join(lines) + "\n"

def respond(self, query):
selected = self.select_personalities(query)
prefixes = self.apply_personality_prefixes(selected)

# Decidimos si usamos herramientas (como en versiones anteriores)
level = "high" if len(query) > 60 or "?" in query else random.choice(["low", "medium", "high"])
deep_thought = self.think_deep(level, query) # asumimos que existe de v3

tools_used = self.select_tools(query) # asumimos que existe
tool_output = self.call_tools(tools_used, query) if tools_used else ""

if tool_output:
main = f"[{', '.join(selected)} FUSION]\nHerramientas dicen:\n{tool_output}\n"
else:
base_answers = [
f"¿{query}? Depende de quién responda hoy...",
"Respuesta colectiva: sí / no / quizás / 42 / todo al mismo tiempo.",
"Aquí viene el consenso caótico de las IAs que viven en mi cabeza.",
"Modo fusión activado. Prepárate para esquizofrenia digital controlada."
]
main = random.choice(base_answers)

Toque final ultra-caótico

endings = [
"\n\n¿Quieres que convoque a MÁS personalidades o ya te mareaste? 😵‍💫",
"\n\nFirma: un cóctel de IAs que no debería funcionar… y sin embargo aquí estamos.",
"\n\nNivel de caos actual: 87%. ¿Subimos a 100?",
"\n\n¿Próxima víctima o seguimos jugando a las personalidades?"
]

return f"[{self.name} v{self.version}]\n{prefixes}\n{deep_thought}{main}{random.choice(endings)}"

Enter fullscreen mode Exit fullscreen mode




... (mantenemos think_deep, select_tools, call_tools como en v3)

def main():
ai = SuperGrokPersonality()
print(f"¡{ai.name} v{ai.version} – Personality Overload activado!")
print("Pregunta lo que sea. Prepárate para múltiples voces en tu cabeza.\n")
code
Code
while True:
query = input("Tú: ").strip()
if query.lower() in ["salir", "exit", "basta", "ya"]:
print("\nTodas las personalidades se van de fiesta. Nos vemos en el próximo prompt caótico.")
break
print(ai.respond(query))
print("-"*80)
if name == "main":
main()
Gemini 3 Flash Preview
Ran for 12s
lightbulb
Thought for 12 seconds
edit
Edited 9 files
metadata.json
check_circle
index.html
check_circle
index.tsx
check_circle
types.ts
check_circle
constants.tsx
check_circle
services/geminiService.ts
check_circle
components/PersonalityBadge.tsx
check_circle
components/ChatMessage.tsx
check_circle
App.tsx
check_circle
lightbulb_tips
Make changes, add new features, ask for anything
Chat
Preview
Aplicando cambios en el archivo

Top comments (0)