Whitepaper 'FinOps y gestión de costes para Kubernetes'
Considere darle a OptScale un Estrella en GitHub, es 100% de código abierto. Aumentaría su visibilidad ante los demás y aceleraría el desarrollo de productos. ¡Gracias!
Ebook 'De FinOps a estrategias comprobadas de gestión y optimización de costos en la nube'
menu icon
OptScale - FinOps
Descripción general de FinOps
Optimización de costos:
AWS
MS Azure
Nube de Google
Alibaba Cloud
Kubernetes
menu icon
OptScale - MLOps
Perfiles de ML/IA
Optimización de ML/IA
Perfilado de Big Data
PRECIOS DE ESCALA OPTICA
menu icon
Acura: migración a la nube
Descripción general
Cambio de plataforma de la base de datos
Migración a:
AWS
MS Azure
Nube de Google
Alibaba Cloud
VMware
OpenStack
KVM
Nube pública
Migración desde:
En la premisa
menu icon
Acura: recuperación ante desastres y respaldo en la nube
Descripción general
Migración a:
AWS
MS Azure
Nube de Google
Alibaba Cloud
VMware
OpenStack
KVM

Tablas de clasificación de ML/IA para optimizar su flujo de trabajo de ML

Asegúrese de que los conjuntos de datos y las métricas de evaluación sean consistentes en todas las ejecuciones del modelo para realizar comparaciones de modelos equivalentes.
ML/AI Leaderboards
ML-evaluation-protocol-OptScale

Protocolo de evaluación

ML-apples-to-apples-comparison-OptScale

Comparación de manzanas con manzanas

Protocolo de evaluación

El protocolo de evaluación de OptScale contiene un conjunto de reglas que permiten comparar, filtrar y descartar candidatos. Garantiza que los modelos entrenados se prueben de forma consistente, transparente y repetible.

Los usuarios pueden definir una métrica de prioridad para clasificar a los candidatos en la tabla de clasificación, establecer condiciones sobre los valores de otras métricas para filtrar candidatos no adecuados y seleccionar los conjuntos de datos en los que se evaluarán los candidatos.

Por ejemplo, los especialistas en ML pueden considerar solo modelos con una precisión superior a 0,95, un tiempo de ejecución, una pérdida, una precisión, una sensibilidad, una puntuación F1, un coste, etc. específicos.

Evaluation protocol OptScale

El protocolo de evaluación garantiza que la evaluación pueda repetirse con los mismos resultados. 

Por ejemplo, un modelo particular puede mostrar una precisión excelente en un conjunto de datos específico y los especialistas en ML pueden evaluar el modelo en otro conjunto de datos.

Apples-to-apples comparison OptScale

Comparación de manzanas con manzanas

Con OptScale, los especialistas en ML pueden realizar una comparación justa entre modelos, garantizando que las diferencias en el rendimiento se deban a los modelos mismos y no a factores externos.

Los usuarios pueden comparar modelos utilizando el los mismos conjuntos de datos, pasos de preprocesamiento de datos (como normalización, escalamiento o ingeniería de características), hiperparámetros, métricas de evaluación y condiciones de entrenamiento. 

OptScale Leaderboards garantiza un conjunto de datos de evaluación y métricas consistentes en todas las ejecuciones del modelo para aplicar una comparación equitativa.

Plataformas soportadas

aws
MS Azure
google cloud platform
Alibaba Cloud
Kubernetes
databricks
PyTorch
kubeflow
TensorFlow
spark-apache

Noticias e informes

Plataforma de código abierto MLOps

Una descripción completa de OptScale como una plataforma de código abierto MLOps.

Mejore el proceso de ML en su empresa con Capacidades de OptScale, incluido

  • Tablas de clasificación de ML/IA
  • Seguimiento de experimentos
  • Ajuste de hiperparámetros
  • Versiones de modelos y conjuntos de datos
  • Optimización de los costos de la nube

Cómo utilizar OptScale para optimizar el uso de RI/SP para equipos de ML/AI

Descubra cómo: 

  • Mejore la utilización de RI/SP por parte de los equipos de ML/AI con OptScale
  • ver cobertura RI/SP
  • obtenga recomendaciones para el uso óptimo de RI/SP

Por qué es importante MLOps

Para cerrar la brecha entre el aprendizaje automático y las operaciones, en este artículo abordaremos lo siguiente:

  • Los factores impulsores de MLOps
  • Los problemas de superposición entre MLOps y DevOps
  • Los desafíos únicos de MLOps en comparación con DevOps
  • Las partes integrales de una estructura MLOps