Whitepaper 'FinOps e gerenciamento de custos para Kubernetes'
Por favor, considere dar ao OptScale um Estrela no GitHub, é código aberto 100%. Aumentaria sua visibilidade para outros e aceleraria o desenvolvimento de produtos. Obrigado!
Ebook 'De FinOps a estratégias comprovadas de gerenciamento e otimização de custos de nuvem'
menu icon
OptScale — FinOps
Visão geral do FinOps
Otimização de custos:
AWS
Microsoft Azure
Google Cloud
Nuvem Alibaba
Kubernetes
menu icon
OptScale — MLOps
Perfil de ML/IA
Otimização de ML/IA
Criação de perfil de Big Data
PREÇOS OPTSCALE
menu icon
Acura – migração para nuvem
Visão geral
Nova plataforma de banco de dados
Migração para:
AWS
Microsoft Azure
Google Cloud
Nuvem Alibaba
VMware
Pilha aberta
KVM
Nuvem pública
Migração de:
Na premissa
menu icon
Acura – DR e backup na nuvem
Visão geral
Migração para:
AWS
Microsoft Azure
Google Cloud
Nuvem Alibaba
VMware
Pilha aberta
KVM

ML Leaderboards

Ensure consistent evaluation datasets and metrics across all model runs for apples-to-apples model comparisons
ML/AI Leaderboards
ML-evaluation-protocol-OptScale

Evaluation protocol

ML-apples-to-apples-comparison-OptScale

Apples-to-apples comparison

Evaluation protocol

OptScale Evaluation protocol contains a set of rules by which candidates are compared, filtered, and discarded. It ensures that trained models are tested in a consistent, transparent, and repeatable way.

Users can define a priority metric for ranking candidates on the leaderboard, set conditions on the values of other metrics to filter out unsuitable candidates and select the datasets on which the candidates will be evaluated.

For example, ML specialists may consider only models with an Accuracy above 0.95, a specified Runtime, Loss, Precision, Sensitivity, F1 Score, Cost, and so on.

Evaluation protocol OptScale

The evaluation protocol ensures that the evaluation can be repeated with the same results. 

For example, a particular model may show excellent accuracy on a specific dataset, and ML specialists can evaluate the model on another dataset.

Apples-to-apples comparison OptScale

Apples-to-apples comparison

With OptScale, ML specialists can make a fair comparison between models, ensuring that the differences in performance are due to the models themselves and not external factors.

Users can compare models using the same datasets, data preprocessing steps (such as normalization, scaling, or feature engineering), hyperparameters, evaluation metrics, and training conditions. 

OptScale Leaderboards guarantees a consistent evaluation dataset and metrics across all model runs to enforce an apples-to-apples comparison.

Plataformas suportadas

aws
MS Azure
google cloud platform
Alibaba Cloud
Kubernetes
databricks
PyTorch
kubeflow
TensorFlow
spark-apache

Novidades e Relatórios

Plataforma de código aberto MLOps

Uma descrição completa do OptScale como uma plataforma de código aberto MLOps.

Melhore o processo de ML na sua empresa com Recursos de OptScale, incluindo

  • Placares de ML/IA
  • Rastreamento de experimentos
  • Ajuste de hiperparâmetros
  • Controle de versão de conjunto de dados e modelo
  • Otimização de custo de nuvem

Como usar o OptScale para otimizar o uso de RI/SP para equipes de ML/IA

Descubra como: 

  • aprimore a utilização de RI/SP por equipes de ML/IA com OptScale
  • veja cobertura RI/SP
  • obtenha recomendações para uso ideal de RI/SP

Por que o MLOps é importante

Abordamos neste artigo como preencher a lacuna entre aprendizado de máquina e operações:

  • Os fatores determinantes para MLOps
  • As questões sobrepostas entre MLOps e DevOps
  • Os desafios únicos em MLOps em comparação com DevOps
  • As partes integrantes de uma estrutura MLOps