Volver al inicio

Overview · Paso 1 de 10

Vision, Natural Language, Core ML y Foundation Models

Qué hace cada framework, en qué casos brilla y cómo se relacionan entre sí.

Apple ofrece cuatro frameworks principales para inteligencia artificial directamente en el dispositivo. No necesitas servidor ni API key externa: todo ocurre en el chip de tu iPhone, iPad o Mac.

Cada framework resuelve un tipo de problema distinto. Saber cuál usar es la primera decisión técnica que los jueces valorarán en tu proyecto.

Vision

Analiza imágenes y video. Reconoce texto (OCR), rostros, objetos, códigos de barras y escenas. Todo en tiempo real usando la cámara o fotos de la galería.

Ideal para: accesibilidad visual, escaneo de documentos, realidad aumentada, control por gestos.

Vision Overview
import Vision

let request = VNRecognizeTextRequest { request, error in
    guard let observations = request.results as? [VNRecognizedTextObservation] else { return }
    for observation in observations {
        print(observation.topCandidates(1).first?.string ?? "")
    }
}

Natural Language

Procesa texto: detecta idioma, etiqueta partes de la oración, extrae nombres de personas y lugares, y analiza sentimientos (positivo, negativo, neutral).

Ideal para: moderación de contenido, resúmenes automáticos, asistentes conversacionales, análisis de feedback.

NaturalLanguage Overview
import NaturalLanguage

let tagger = NLTagger(tagSchemes: [.sentimentScore])
tagger.string = "Me encanta esta app, es increíble"
let (sentiment, _) = tagger.tag(at: tagger.string!.startIndex, unit: .paragraph, scheme: .sentimentScore)
print(sentiment?.rawValue ?? "0") // "1.0" = muy positivo

Core ML

Ejecuta modelos de machine learning personalizados (convertidos desde TensorFlow, PyTorch o creados con Create ML). Clasificación de imágenes, detección de sonidos, predicción numérica, etc.

Ideal para: modelos entrenados con datos propios, detección específica de objetos, predicciones de uso personal.

CoreML Overview
import CoreML

let model = try! MyCustomClassifier(configuration: MLModelConfiguration())
let prediction = try! model.prediction(input: MyCustomClassifierInput(image: pixelBuffer))
print(prediction.classLabel)

Foundation Models (iOS 26+)

Modelos de lenguaje grandes (LLM) que corren localmente. Generan texto, responden preguntas, extraen estructuras y llaman a herramientas personalizadas — todo sin enviar datos a la nube.

Ideal para: asistentes inteligentes offline, generación de contenido privado, extracción estructurada de datos, brainstorming.

FoundationModels Overview
import FoundationModels

let session = LanguageModelSession()
let response = try await session.respond(to: "Resume este texto en una frase")
print(response.content)

Cuando hayas leído el texto, marca la lección para seguir el progreso.