Imagem do herói

Servidores dedicados com unidades de processamento Tensor

Impulsione seu desenvolvimento de IA com Tensor Processing Units, aceleradores personalizados projetados para aprendizado de máquina de alto desempenho em escala.
Começar

Soluções de servidor aprimoradas por TPU para cargas de trabalho de IA, ideais para:

Inferência em tempo real

Graças ao seu desempenho de baixa latência, as TPUs são adequadas para aplicações em tempo real, como mecanismos de recomendação e detecção de fraudes.

Treinamento de Modelo de Linguagem Grande

As TPUs são projetadas para treinar com eficiência modelos complexos, como GPT-4 e BERT, reduzindo significativamente o tempo de treinamento e os custos computacionais.

Pesquisa e Desenvolvimento

De modelos climáticos a simulações de proteínas, as TPUs capacitam os pesquisadores com a velocidade e a potência necessárias para descobertas inovadoras.

Acelerador Coral M.2

O Coral M.2 Accelerator impulsiona o aprendizado de máquina no dispositivo, oferecendo inferência rápida com consumo mínimo de energia. Integrá-lo ao seu sistema permite um processamento de ML eficiente e em tempo real na borda, reduzindo a latência e a dependência de recursos da nuvem.

Acelerador de Coral

Módulo Hailo-8 M.2 2280

O processador de IA de ponta Hailo-8 oferece até 26 TOPS em um pacote ultracompacto — menor que um centavo, incluindo memória. Sua arquitetura otimizada para rede neural permite aprendizado profundo em tempo real em dispositivos de ponta com baixo consumo de energia, tornando-o ideal para aplicações automotivas, de cidades inteligentes e de automação industrial. Este design eficiente oferece suporte a IA de alto desempenho na ponta, minimizando o consumo de energia e os custos gerais.

Módulo Hailo-8
Close

Type

Deployment

5min - 30min
4h - 24h

Location

Select your option Arrow down
  • Select your option
  • US New York, US
  • US Miami, US
  • US San Francisco, US
  • Netherlands Amsterdam, EU
  • Romania Bucharest, EU

Pricing

0 0

Hardware

Processor(s)

Select your option Arrow down

    GPU(s)

    Select your option Arrow down

      Memory

      Select your option Arrow down

        Storage

        Select your option Arrow down

          OS

          Select your option Arrow down

            Bandwidth

            Select your option Arrow down

              Type

              Deployment

              5min - 30min
              4h - 24h

              Location

              Select your option Arrow down
              • Select your option
              • US New York, US
              • US Miami, US
              • US San Francisco, US
              • Netherlands Amsterdam, EU
              • Romania Bucharest, EU

              Pricing

              0 0

              Hardware

              Processor(s)

              Select your option Arrow down

                GPU(s)

                Select your option Arrow down

                  Memory

                  Select your option Arrow down

                    Storage

                    Select your option Arrow down

                      OS

                      Select your option Arrow down

                        Bandwidth

                        Select your option Arrow down

                          Sort by:

                          Price Low to High Arrow down
                          • Price Low to High
                          • Discount High to Low
                          Loading

                          Loading servers...

                          Recurso
                          Alto desempenho

                          Projetadas para se destacar em tarefas com uso intenso de matriz, as TPUs oferecem velocidades de treinamento e inferência aceleradas em comparação às GPUs tradicionais.

                          Recurso
                          Escalabilidade

                          Permite que o treinamento seja distribuído entre várias unidades, possibilitando escalabilidade eficiente para modelos de grande escala.

                          Recurso
                          Compatibilidade

                          Oferece suporte para estruturas de ML populares, como TensorFlow, PyTorch (por meio do OpenXLA) e JAX, garantindo integração fácil com seus processos existentes.

                          Recurso
                          Integração

                          Integradas ao Google Kubernetes Engine (GKE) e ao Vertex AI, as TPUs fornecem orquestração e gerenciamento fáceis de cargas de trabalho de IA.

                          Implante seu servidor dedicado TPU hoje mesmo!

                          Get started