De identidades digitais hiper-realistas a companheiros com alma—traga sua imaginação à vida com nosso mecanismo de criação avançado.
Choose a Category to Start Your Journey By Our AI

Step into the 2D world. Craft your dream anime companion with stunning cel-shaded or manga-style aesthetics.

Design your ideal partner—from the gentle "boy next door" to the charismatic CEO—with personalized personality traits.


Create your perfect companion. Customize every detail of her appearance and emotional intelligence to fit your heart's desire.

Experience the next dimension. Generate hyper-realistic 3D avatars with cinematic lighting and immersive depth.

Who says a friend has to be human? Create magical, talking animal companions or mythical pets with unique spirits.
Featuring Your Unique AI Partner
Take your relationship to the next level. Don't just text—watch your AI partner speak, move, and react. Our advanced video synthesis engine turns simple prompts into high-definition clips with natural body language and fluid expressions.
You are the director. Whether it's a romantic sunset walk with your AI Girlfriend, a high-octane action sequence featuring your AI 3D Hero, or a cozy vlog with your AI Animal Friend, you control the setting, the motion, and the mood.
Bring your videos to life with perfectly synced audio. Upload your voice or choose from our emotional AI voice library to let your partner sing, tell stories, or share heartfelt messages in multiple languages.
Create content that stands out. Easily export your AI interaction videos in formats perfect for TikTok, Instagram, and YouTube. Show the world the unique bond you've built with your digital companion.
Don't spend the holidays alone. Whether it's the warmth of a festival or a personal milestone, your AI partner is there to share the joy. Immerse yourself in themed environments that change with the seasons.
Dress your AI Friend in cozy knitted sweaters, reindeer antlers, or elegant holiday attire.
Watch them unwrap gifts, decorate a virtual tree, or cozy up by a crackling fireplace.
Receive personalized Christmas carols or heartfelt voice messages to start your morning with a smile.




Alto Desempenho·Leve·Totalmente Código AbertoArquitetura MoE para Geração e Compreensão Multimodal
MAGI-1 é um modelo avançado de geração de vídeo autorregressivo desenvolvido pela SandAI, projetado para gerar vídeos de alta qualidade prevendo sequências de fragmentos de vídeo de forma autorregressiva. Este modelo é treinado para remover ruído de fragmentos de vídeo, permitindo modelagem temporal causal e suportando geração em streaming. MAGI-1 se destaca em tarefas de imagem para vídeo (I2V), fornecendo alta consistência temporal e escalabilidade, graças a várias inovações algorítmicas e uma pilha de infraestrutura dedicada.
| Recurso | Descrição |
|---|---|
| Ferramenta de IA | MAGI-1 |
| Categoria | Modelo de Geração de Vídeo Autorregressivo |
| Função | Geração de Vídeo |
| Velocidade de Geração | Geração de Vídeo de Alta Eficiência |
| Artigo Científico | Artigo Científico |
| Site Oficial | GitHub - SandAI-org/MAGI-1 |
Utiliza um autocodificador variacional com arquitetura baseada em transformer, oferecendo compressão espacial de 8x e temporal de 4x. Isso resulta em tempos de decodificação rápidos e qualidade de reconstrução competitiva.
Gera vídeos fragmento por fragmento, permitindo o processamento simultâneo de até quatro fragmentos para geração eficiente de vídeo. Cada fragmento (24 quadros) tem o ruído removido holisticamente, e o próximo fragmento começa assim que o atual atinge um certo nível de remoção de ruído.

Construído sobre o Transformer de Difusão, incorporando inovações como Atenção Block-Causal, Bloco de Atenção Paralela, QK-Norm e GQA. Apresenta Normalização Sandwich em FFN, SwiGLU e Modulação Softcap para melhorar a eficiência do treinamento e a estabilidade em escala.

Usa destilação por atalho para treinar um único modelo baseado em velocidade que suporta orçamentos de inferência variáveis. Essa abordagem garante inferência eficiente com perda mínima de fidelidade.
Fornecemos os pesos pré-treinados para o MAGI-1, incluindo os modelos 24B e 4.5B, bem como os modelos correspondentes de destilação e destilação+quantização. Os links dos pesos dos modelos são mostrados na tabela.
| Modelo | Link | Máquina Recomendada |
|---|---|---|
| T5 | T5 | - |
| MAGI-1-VAE | MAGI-1-VAE | - |
| MAGI-1-24B | MAGI-1-24B | H100/H800 * 8 |
| MAGI-1-24B-distill | MAGI-1-24B-distill | H100/H800 * 8 |
| MAGI-1-24B-distill+fp8_quant | MAGI-1-24B-distill+fp8_quant | H100/H800 * 4 ou RTX 4090 * 8 |
| MAGI-1-4.5B | MAGI-1-4.5B | RTX 4090 * 1 |
MAGI-1 supera outros modelos de código aberto como Wan-2.1, , Hailuo e HunyuanVideo em termos de seguimento de instruções e qualidade de movimento, tornando-se um forte concorrente para modelos comerciais de código fechado.

MAGI-1 demonstra precisão superior na previsão de comportamento físico através da continuação de vídeo, superando significativamente os modelos existentes.
| Model | Phys. IQ Score ↑ | Spatial IoU ↑ | Spatio Temporal ↑ | Weighted Spatial IoU ↑ | MSE ↓ |
|---|---|---|---|---|---|
| V2V Models | |||||
| Magi (V2V) | 56.02 | 0.367 | 0.270 | 0.304 | 0.005 |
| VideoPoet (V2V) | 29.50 | 0.204 | 0.164 | 0.137 | 0.010 |
| I2V Models | |||||
| Magi (I2V) | 30.23 | 0.203 | 0.151 | 0.154 | 0.012 |
| Kling1.6 (I2V) | 23.64 | 0.197 | 0.086 | 0.144 | 0.025 |
| VideoPoet (I2V) | 20.30 | 0.141 | 0.126 | 0.087 | 0.012 |
| Gen 3 (I2V) | 22.80 | 0.201 | 0.115 | 0.116 | 0.015 |
| Wan2.1 (I2V) | 20.89 | 0.153 | 0.100 | 0.112 | 0.023 |
| Sora (I2V) | 10.00 | 0.138 | 0.047 | 0.063 | 0.030 |
| GroundTruth | 100.0 | 0.678 | 0.535 | 0.577 | 0.002 |
Experimente a próxima geração de criação de vídeo com IA com o MAGI-1, onde tecnologia de ponta encontra transparência de código aberto.
Assuma o controle do seu conteúdo com ajustes precisos de tempo por quadro, garantindo que seus vídeos atendam às especificações criativas exatas.
Produza vídeos com visuais claros e detalhados e movimento suave, garantindo uma experiência profissional e envolvente.
Experimente movimento realista com nosso processamento avançado de movimento, eliminando transições robóticas para vídeos verdadeiramente naturais.
Junte-se a um ecossistema transparente onde todos os modelos e pesquisas estão disponíveis gratuitamente, promovendo melhoria colaborativa e inovação.
MAGI-1 AI é um modelo avançado de geração de vídeo autorregressivo desenvolvido pela SandAI, projetado para gerar vídeos de alta qualidade prevendo sequências de fragmentos de vídeo de forma autorregressiva. Este modelo é treinado para remover ruído de fragmentos de vídeo, permitindo modelagem temporal causal e suportando geração em streaming.
Os recursos do modelo de geração de vídeo MAGI-1 AI incluem um VAE baseado em Transformer para decodificação rápida e qualidade de reconstrução competitiva, um algoritmo de remoção de ruído autorregressivo para geração eficiente de vídeo e uma arquitetura de modelo de difusão que melhora a eficiência do treinamento e a estabilidade em escala. Também suporta geração controlável via prompts por fragmento, permitindo transições suaves de cena, síntese de longo horizonte e controle detalhado baseado em texto.
O MAGI-1 AI gera vídeos fragmento por fragmento, em vez de como um todo. Cada fragmento (24 quadros) tem o ruído removido holisticamente, e a geração do próximo fragmento começa assim que o atual atinge um certo nível de remoção de ruído. Este design de pipeline permite o processamento simultâneo de até quatro fragmentos para geração eficiente de vídeo.
As variantes do modelo para vídeo MAGI-1 incluem o modelo 24B otimizado para geração de vídeo de alta fidelidade e o modelo 4.5B adequado para ambientes com recursos limitados. Modelos destilados e quantizados também estão disponíveis para inferência mais rápida.
O MAGI-1 AI alcança desempenho estado da arte entre modelos de código aberto, destacando-se no seguimento de instruções e qualidade de movimento, posicionando-se como um forte potencial concorrente para modelos comerciais de código fechado como o Kling1.6. Também demonstra precisão superior na previsão de comportamento físico através da continuação de vídeo, superando significativamente todos os modelos existentes.
O MAGI-1 AI pode ser executado usando Docker ou diretamente do código-fonte. Docker é recomendado para facilidade de configuração. Os usuários podem controlar entrada e saída modificando parâmetros nos scripts run.sh fornecidos.
O MAGI-1 é lançado sob a Licença Apache 2.0.
A função 'Expansão Infinita de Vídeo' do MAGI-1 permite a extensão contínua do conteúdo do vídeo, combinada com 'controle de eixo de tempo em nível de segundo', permitindo que os usuários alcancem transições de cena e edição refinada através de prompts por fragmento, atendendo às necessidades de produção cinematográfica e narrativa.
Graças às vantagens naturais da arquitetura autorregressiva, o MAGI-1 alcança precisão muito superior na previsão de comportamento físico através da continuação de vídeo—superando significativamente todos os modelos existentes.
O MAGI-1 é projetado para várias aplicações, como criação de conteúdo, desenvolvimento de jogos, pós-produção de filmes e educação. Oferece uma ferramenta poderosa para geração de vídeo que pode ser usada em múltiplos cenários.