Estrategia · Paso 9 de 10
Recursos para seguir aprendiendo después del taller
Documentación oficial, sample code, videos de WWDC y herramientas de conversión de modelos.
El taller es solo el inicio. Estos recursos te permitirán profundizar, resolver dudas específicas y mantenerte actualizado cuando Apple lance nuevas capacidades.
Documentación oficial
Apple Machine Learning — Punto de partida oficial: guías, modelos pre-entrenados y sample code.
Vision Framework — Referencia completa de requests, observaciones y best practices.
Foundation Models — Documentación de LanguageModelSession, @Generable, tool calling y snapshot streaming.
Natural Language — NLTagger, NLModel y NLEmbedding.
Core ML — Carga, compilación y ejecución de modelos. Incluye guía de conversión desde PyTorch/TensorFlow.
Sample code y tutoriales
DemoAI — Repo del taller — Proyecto iOS completo con las tres demos: Vision OCR, Natural Language sentimientos, y Foundation Models chat on-device.
Recognizing Text in Images — Demo oficial de Vision + OCR con VNRecognizeTextRequest.
Building a Classifier with Create ML — Entrena un modelo de clasificación de imágenes sin escribir código de ML.
Integrating a Core ML Model into Your App — Flujo completo desde el modelo .mlmodel hasta la predicción en SwiftUI.
Structured Output with Generable — Ejemplo de Foundation Models extrayendo datos tipados de texto libre.
Herramientas de conversión
coremltools — Convierte modelos PyTorch, TensorFlow y ONNX a Core ML. Incluye cuantización para reducir tamaño.
Create ML — Entrena modelos directamente en Xcode con datos en formato JSON o carpetas de imágenes.
ML Compute — Acelera el entrenamiento en Mac con Apple Silicon usando la GPU unificada.
Cuando hayas leído el texto, marca la lección para seguir el progreso.