Todos los grandes modelos de inteligencia artificial generativa están siendo censurados, tanto a nivel de empresa (entrenando el modelo para dar sólo respuestas políticamente correctas) como a nivel de estado, donde la regulación europea es sólo el comienzo.

Por un lado habrá modelos centralizadosm, entrenados con “información procesada” para consumo masivo. Y por otro lado habrá modelos de código abierto para uso (teóricamente) personal. Pero en el un futuro no muy distante muchos de los modelos abiertos serán considerados subversivos o ilegales.

Lo interesante es que la regulación europea está dejando de lado los modelos open-source. Y no parece que haya sido por las presiones de Facebook. Más bien parece resultado del asesoramiento que han recibido los reguladores.

Por algún motivo los reguladores asumen que los modelos open-source sólo tendrán aplicaciones personales limitadas. Muy pronto se darán cuenta del error que eso representa para sus intereses.

Con algunos conocimientos técnicos y un coste cada vez más reducido es fácil instalar y crear tu propio modelo (ver más abajo). La barrera ahora mismo está en unos pocos años de experiencia en Python y unos 1.500€. En muy poco tiempo el proceso quedará reducido a apretar un botón para instalar, y otro botón para entrenar el modelo.

Puesto que vivimos en una realidad cada vez más parecida a una película, el sistema utilizará la capacidad de estos modelos abiertos para justificar más regulaciones con el fin de “proteger” a la población.

La excusa necesaria será algún tipo de atentado cibernético. Según la versión oficial dicho atentado será causado por “hackers malvados” utilizando modelos de código abierto. O incluso la decisión deliberada de alguna “IA consciente” que ha escapado del control humano.

En las tonterías que se pueden hacer creer a la gente el único límite es la imaginación de los medios. ¡Por lo tanto en la narrativa oficial por primera vez se ve claramente un episodio de máquinas malvadas luchando contra humanos!.

MistralAI is at it again. They’ve released an MoE (mixture of experts) model that completely dominates the open-source world. Here’s a breakdown of what they released, plus an installation guide and an LLM test.https://www.youtube.com/watch?v=WjiX3lCnwUI

Mistral Medium – Nearly GPT4 Quality at 1/10th the Cost (Beats Mixtral 8x7b)

Let’s review Dolphin 2.5 Mixtral 8x7b Uncensored.
All censorship has been removed from this LLM and it’s based on the Mixtral “mixture of experts” model, which performed extremely well in my previous tests.  https://www.youtube.com/watch?v=q2KpPUOsBCs , https://huggingface.co/ehartford/dolphin-2.5-mixtral-8x7b

Different and more extensive video about the same topic: Learn how to run Mistral’s 8x7B model and its uncensored varieties using open-source tools. Let’s find out if Mixtral is a good alternative to GPT-4, and learn how to fine tune it with your own data. https://www.youtube.com/watch?v=GyllRd2E6fg

Ejemplo de una interacción con un modelo sin censurar:

La Bifurcación: IA Open source vs IA Regulada