Whitepaper 'FinOps e gerenciamento de custos para Kubernetes'
Por favor, considere dar ao OptScale um Estrela no GitHub, é código aberto 100%. Aumentaria sua visibilidade para outros e aceleraria o desenvolvimento de produtos. Obrigado!
Ebook 'De FinOps a estratégias comprovadas de gerenciamento e otimização de custos de nuvem'
menu icon
OptScale — FinOps
Visão geral do FinOps
Otimização de custos:
AWS
Microsoft Azure
Google Cloud
Nuvem Alibaba
Kubernetes
menu icon
OptScale — MLOps
Perfil de ML/IA
Otimização de ML/IA
Criação de perfil de Big Data
PREÇOS OPTSCALE
menu icon
Acura – migração para nuvem
Visão geral
Nova plataforma de banco de dados
Migração para:
AWS
Microsoft Azure
Google Cloud
Nuvem Alibaba
VMware
Pilha aberta
KVM
Nuvem pública
Migração de:
Na premissa
menu icon
Acura – DR e backup na nuvem
Visão geral
Migração para:
AWS
Microsoft Azure
Google Cloud
Nuvem Alibaba
VMware
Pilha aberta
KVM

Placares de ML/IA para otimizar seu fluxo de trabalho de ML

Garanta conjuntos de dados e métricas de avaliação consistentes em todas as execuções de modelos para comparações de modelos equivalentes
ML/AI Leaderboards
ML-evaluation-protocol-OptScale

Protocolo de avaliação

ML-apples-to-apples-comparison-OptScale

Comparação de maçãs com maçãs

Protocolo de avaliação

O protocolo de avaliação OptScale contém um conjunto de regras pelas quais os candidatos são comparados, filtrados e descartados. Ele garante que os modelos treinados sejam testados de forma consistente, transparente e repetível.

Os usuários podem definir uma métrica de prioridade para classificar os candidatos no tabela de classificação, defina condições nos valores de outras métricas para filtrar candidatos inadequados e selecionar os conjuntos de dados nos quais os candidatos serão avaliados.

Por exemplo, especialistas em ML podem considerar apenas modelos com Precisão acima de 0,95, Tempo de Execução, Perda, Precisão, Sensibilidade, Pontuação F1, Custo especificados e assim por diante.

Evaluation protocol OptScale

O protocolo de avaliação garante que a avaliação possa ser repetida com os mesmos resultados. 

Por exemplo, um modelo específico pode mostrar excelente precisão em um conjunto de dados específico, e especialistas em ML podem avaliar o modelo em outro conjunto de dados.

Apples-to-apples comparison OptScale

Comparação de maçãs com maçãs

Com o OptScale, os especialistas em ML podem fazer uma comparação justa entre modelos, garantindo que as diferenças no desempenho sejam devidas aos próprios modelos e não a fatores externos.

Os usuários podem comparar modelos usando o mesmos conjuntos de dados, etapas de pré-processamento de dados (como normalização, dimensionamento ou engenharia de recursos), hiperparâmetros, métricas de avaliação e condições de treinamento. 

O OptScale Leaderboards garante um conjunto de dados de avaliação e métricas consistentes em todas as execuções do modelo para impor uma comparação justa.

Plataformas suportadas

aws
MS Azure
google cloud platform
Alibaba Cloud
Kubernetes
databricks
PyTorch
kubeflow
TensorFlow
spark-apache

Novidades e Relatórios

Plataforma de código aberto MLOps

Uma descrição completa do OptScale como uma plataforma de código aberto MLOps.

Melhore o processo de ML na sua empresa com Recursos de OptScale, incluindo

  • Placares de ML/IA
  • Rastreamento de experimentos
  • Ajuste de hiperparâmetros
  • Controle de versão de conjunto de dados e modelo
  • Otimização de custo de nuvem

Como usar o OptScale para otimizar o uso de RI/SP para equipes de ML/IA

Descubra como: 

  • aprimore a utilização de RI/SP por equipes de ML/IA com OptScale
  • veja cobertura RI/SP
  • obtenha recomendações para uso ideal de RI/SP

Por que o MLOps é importante

Abordamos neste artigo como preencher a lacuna entre aprendizado de máquina e operações:

  • Os fatores determinantes para MLOps
  • As questões sobrepostas entre MLOps e DevOps
  • Os desafios únicos em MLOps em comparação com DevOps
  • As partes integrantes de uma estrutura MLOps