Volver al inicio

Estrategia · Paso 9 de 10

Recursos para seguir aprendiendo después del taller

Documentación oficial, sample code, videos de WWDC y herramientas de conversión de modelos.

El taller es solo el inicio. Estos recursos te permitirán profundizar, resolver dudas específicas y mantenerte actualizado cuando Apple lance nuevas capacidades.

Documentación oficial

Apple Machine Learning — Punto de partida oficial: guías, modelos pre-entrenados y sample code.

Vision Framework — Referencia completa de requests, observaciones y best practices.

Foundation Models — Documentación de LanguageModelSession, @Generable, tool calling y snapshot streaming.

Natural Language — NLTagger, NLModel y NLEmbedding.

Core ML — Carga, compilación y ejecución de modelos. Incluye guía de conversión desde PyTorch/TensorFlow.

Sample code y tutoriales

DemoAI — Repo del taller — Proyecto iOS completo con las tres demos: Vision OCR, Natural Language sentimientos, y Foundation Models chat on-device.

Recognizing Text in Images — Demo oficial de Vision + OCR con VNRecognizeTextRequest.

Building a Classifier with Create ML — Entrena un modelo de clasificación de imágenes sin escribir código de ML.

Integrating a Core ML Model into Your App — Flujo completo desde el modelo .mlmodel hasta la predicción en SwiftUI.

Structured Output with Generable — Ejemplo de Foundation Models extrayendo datos tipados de texto libre.

Herramientas de conversión

coremltools — Convierte modelos PyTorch, TensorFlow y ONNX a Core ML. Incluye cuantización para reducir tamaño.

Create ML — Entrena modelos directamente en Xcode con datos en formato JSON o carpetas de imágenes.

ML Compute — Acelera el entrenamiento en Mac con Apple Silicon usando la GPU unificada.

Cuando hayas leído el texto, marca la lección para seguir el progreso.