Overview · Paso 1 de 10
Vision, Natural Language, Core ML y Foundation Models
Qué hace cada framework, en qué casos brilla y cómo se relacionan entre sí.
Apple ofrece cuatro frameworks principales para inteligencia artificial directamente en el dispositivo. No necesitas servidor ni API key externa: todo ocurre en el chip de tu iPhone, iPad o Mac.
Cada framework resuelve un tipo de problema distinto. Saber cuál usar es la primera decisión técnica que los jueces valorarán en tu proyecto.
Vision
Analiza imágenes y video. Reconoce texto (OCR), rostros, objetos, códigos de barras y escenas. Todo en tiempo real usando la cámara o fotos de la galería.
Ideal para: accesibilidad visual, escaneo de documentos, realidad aumentada, control por gestos.
import Vision
let request = VNRecognizeTextRequest { request, error in
guard let observations = request.results as? [VNRecognizedTextObservation] else { return }
for observation in observations {
print(observation.topCandidates(1).first?.string ?? "")
}
}Natural Language
Procesa texto: detecta idioma, etiqueta partes de la oración, extrae nombres de personas y lugares, y analiza sentimientos (positivo, negativo, neutral).
Ideal para: moderación de contenido, resúmenes automáticos, asistentes conversacionales, análisis de feedback.
import NaturalLanguage
let tagger = NLTagger(tagSchemes: [.sentimentScore])
tagger.string = "Me encanta esta app, es increíble"
let (sentiment, _) = tagger.tag(at: tagger.string!.startIndex, unit: .paragraph, scheme: .sentimentScore)
print(sentiment?.rawValue ?? "0") // "1.0" = muy positivoCore ML
Ejecuta modelos de machine learning personalizados (convertidos desde TensorFlow, PyTorch o creados con Create ML). Clasificación de imágenes, detección de sonidos, predicción numérica, etc.
Ideal para: modelos entrenados con datos propios, detección específica de objetos, predicciones de uso personal.
import CoreML
let model = try! MyCustomClassifier(configuration: MLModelConfiguration())
let prediction = try! model.prediction(input: MyCustomClassifierInput(image: pixelBuffer))
print(prediction.classLabel)Foundation Models (iOS 26+)
Modelos de lenguaje grandes (LLM) que corren localmente. Generan texto, responden preguntas, extraen estructuras y llaman a herramientas personalizadas — todo sin enviar datos a la nube.
Ideal para: asistentes inteligentes offline, generación de contenido privado, extracción estructurada de datos, brainstorming.
import FoundationModels
let session = LanguageModelSession()
let response = try await session.respond(to: "Resume este texto en una frase")
print(response.content)Cuando hayas leído el texto, marca la lección para seguir el progreso.