wIA
Tu hub de IA multimotor — Local y Cloud
Tus modelos ejecutándose localmente vía Ollama · Privacidad total
Tu hub de IA multimotor — Local y Cloud
Tus modelos ejecutándose localmente vía Ollama · Privacidad total
Tu API Key se almacena solo en tu navegador (localStorage) y nunca se envía a terceros.
Detectando...
Esta acción borrará permanentemente todos tus chats, conocimiento en proyectos, e historial local.
¿Seguro que quieres eliminar esta conversación? Esta acción no se puede deshacer.
Sobreescribe las instrucciones generales solo para los chats dentro de este proyecto.
Estos archivos acompañarán siempre a todos los chats de este proyecto, consumiendo ventana de contexto. Úsalo como NotebookLM.
Cargando modelos locales...
Conexión Bloqueada por Seguridad
wIA no puede comunicarse con Ollama. Esto ocurre porque Chrome bloquea las peticiones desde archivos locales (`file://`).
Copia y ejecuta el comando según tu sistema operativo:
launchctl setenv OLLAMA_ORIGINS "*"
[System.Environment]::SetEnvironmentVariable('OLLAMA_ORIGINS', '*', 'User')
Para que el cambio funcione, debes cerrar Ollama completamente (búscalo en la bandeja del sistema/barra de menú, botón derecho y "Quit") y volver a abrir la aplicación.
El 100% de los contenidos, textos y código de esta página han sido creados mediante herramientas de Inteligencia Artificial.
Esta web es una herramienta informativa. No recopila, ni transmite ningún dato del usuario. Nuestra web es 100% estática y de ejecución local.
Todos los chats, archivos adjuntos y configuraciones se almacenan exclusivamente en tu navegador (LocalStorage) y nunca se envían a servidores externos, excepto a tu propia instancia local de Ollama o LM Studio.
Tligent, S.L. - Barcelona