LLMO (Large Language Model Optimization) es la capa de optimización más granular del stack de visibilidad en IA. Mientras GEO cubre motores generativos como categoría y AEO cubre motores de respuesta, LLMO opera al nivel del modelo: trata cada LLM individualmente porque ChatGPT, Claude, Gemini y Perplexity tienen mecánicas distintas. Cada uno ejecuta retrieval de información diferente, cita fuentes con patterns diferentes, y prioriza señales diferentes. Optimizar “para IA” genéricamente deja valor en la mesa. Optimizar por LLM específico aumenta la probabilidad de citación donde cada plataforma realmente busca y confía. Para Médicos en Tijuana, esto importa porque Pacientes estadounidenses se mueven entre ChatGPT, Gemini, Perplexity y motores emergentes con expectativas diferentes. Este artículo descompone cómo funciona cada LLM, qué lo hace citar tu Práctica, y cómo adaptar tu presencia digital modelo por modelo sin duplicar trabajo.
El Resumen en 30 Segundos
-
LLMO trata cada LLM individualmente. Sí existen fundamentos cross-platform, pero no existe una táctica única que maximice visibilidad en todos los LLMs. Whitehat SEO analizó 118,000 respuestas generadas por IA y reporta que solo el 11% de los dominios citados aparecen cross-platform.
-
ChatGPT: análisis de industria lo asocian fuertemente al índice de Bing, con una capa propia de recuperación y ranking de OpenAI. Tráfico web medido por Similarweb: aproximadamente 65-68% share en enero 2026 (desde 87.2% hace un año). Ojo: Semrush reportó que casi 90% de páginas citadas por ChatGPT Search rankean en posición 21 o inferior en Google para queries relacionadas, así que SEO técnico ayuda a discovery pero ranking top 10 no garantiza citación.
-
Claude: usa web search cuando la función está activa, fuentes de industria lo asocian con Brave/third-party search, pero Anthropic no lo documenta como regla universal. Sus cutoffs de training varían por modelo. Yext encontró que Claude cita user-generated content 2-4x más que competidores; la causa exacta no está probada, pero el patrón es consistente.
-
Gemini: puede fundamentar respuestas con Google Search y está profundamente conectado al ecosistema Google. 18-22% de tráfico web medido en enero 2026 (desde 5.4%). Para visibilidad: Knowledge Graph, Google Business Profile, schema y consistencia NAP son señales operativas críticas.
-
Perplexity: usa índice propio más Bing hybrid, con retrieval siempre en tiempo real. 21.87 citations promedio por respuesta según análisis de Whitehat SEO. Freshness crítico: 82% citation rate para contenido publicado en los últimos 30 días según el mismo análisis. Tow Center midió 37% de respuestas incorrectas en prueba de recuperación de noticias (el mejor del set).
-
Para Médicos en Tijuana: no hay shortcut. Platform-specific roadmaps son requerimiento, no optimización. Cirujanos individuales con agilidad estructural son los que pueden ejecutar el playbook por LLM sin pelear con aprobación de juntas.
¿Qué es LLMO y cómo se Diferencia de GEO y AEO?
La optimización para IA se fragmentó en cuatro capas. No tres. Cuatro. Cada una resuelve un problema distinto, y confundirlas cuesta meses de trabajo mal dirigido.
SEO (Search Engine Optimization) optimiza para search engines tradicionales. Google, Bing. El objetivo: aparecer en resultados rankeados. Backlinks, keywords, autoridad de dominio, Core Web Vitals. Sigue siendo fundacional pero ya no es suficiente para categorías donde Pacientes usan IA.
GEO (Generative Engine Optimization) optimiza para motores generativos como categoría. ChatGPT, Perplexity, Claude, Gemini agrupados. Formalizado académicamente por Aggarwal et al. en Princeton (arXiv:2311.09735, KDD 2024), el paper demostró que contenido con citations, quotations y statistics puede mejorar visibilidad hasta 40% en respuestas de motores generativos.
AEO (Answer Engine Optimization) optimiza para motores de respuesta directa. Google AI Overviews, Siri, Alexa, Google Assistant. Estos motores buscan answer extraíble, no synthesis. FAQ schema, direct answers, featured snippets. El output es una respuesta, no una recomendación.
LLMO (Large Language Model Optimization) es la capa más granular: trabaja al nivel del modelo. GEO trata “motores generativos” como una caja. LLMO abre esa caja y trata cada LLM individualmente. Porque en 2026, asumir que ChatGPT y Claude funcionan igual es el error que cuesta citations perdidas en ambas plataformas.
La diferencia práctica. Si optimizas con principios GEO solamente, estás escribiendo para “motores generativos” en abstracto. Funciona moderadamente bien. Pero Whitehat SEO analizó 118,000 respuestas generadas por IA (análisis publicado 2026) y encontró que solo el 11% de los dominios citados aparecen cross-platform. Tu contenido puede aparecer en ChatGPT y estar completamente invisible en Claude. Puede dominar en Perplexity y no existir para Gemini.
El corolario incómodo: rankings tradicionales no transfieren automáticamente. Ahrefs, a través del análisis de Discovered Labs, reporta que aproximadamente 12% de las citations de IA también aparecen en el top 10 de Google en un dataset de 15,000 prompts analizados. Lo que llaman el Invisibility Gap: una Práctica médica puede rankear #1 en Google para “Cirujano plástico Tijuana” y ser casi invisible cuando Pacientes le preguntan a ChatGPT o Claude la misma query.
Por qué esto importa más que GEO solo. GEO te da principios. LLMO te da adaptación táctica por modelo. La diferencia:
| Decisión | GEO | LLMO |
|---|---|---|
| ¿Schema? | Sí (para motores generativos) | Sí, específicamente rigoroso para Gemini Knowledge Graph |
| ¿Reviews externos? | Ayudan | Críticos para Claude (2-4x peso según Yext), moderados para ChatGPT |
| ¿Freshness? | Importante | Crítica para Perplexity (82% citation <30 días según Whitehat), moderada para otros |
| ¿Wikipedia? | Ayuda | Sobrerrepresentada en ciertos análisis de ChatGPT (varía por vertical) |
| ¿Reddit? | Emerging | Sobrerrepresentado en análisis de Perplexity (revisar metodología por vertical) |
GEO dice “diversidad de fuentes.” LLMO dice “en qué fuente para qué LLM.” La diferencia entre esos dos frames define si tu inversión de tiempo produce resultados o se difumina.
Medical context. Healthcare es territorio YMYL (Your Money Your Life) en todos los LLMs. Los modelos tratan contenido médico con escrutinio más alto que otros verticales. Claude específicamente, con su Constitutional AI framework, es conservador en health topics. ChatGPT y Gemini tienen safeguards médicos explícitos. Perplexity, a pesar de tener el lowest error rate en la prueba de Tow Center for Digital Journalism (37% incorrecto en retrieval de noticias), sigue siendo propenso a errores en queries médicos específicos.
Un estudio en clinical questions (Answering real-world clinical questions using LLM systems, 2024) evaluó cinco sistemas LLM: ChatGPT-4, Claude 3 Opus, Gemini Pro 1.5 como general-purpose, más dos RAG-based (OpenEvidence y ChatRWD). Los LLMs general-purpose produjeron respuestas relevantes y evidence-based en 2-10% de casos. Los RAG-based subieron a 24-58%. Implicación para Médicos: los Pacientes que hacen preguntas clínicas detalladas no están recibiendo respuestas confiables en ningún LLM. Los que preguntan sobre Cirujanos, procedimientos, ubicaciones, credenciales, opciones de financiamiento, sí reciben respuestas utilizables. LLMO opera en ese segundo territorio.
El stack construye capas:
- SEO = fundación
- GEO = capa generativa
- AEO = capa de respuesta directa
- LLMO = capa por modelo, donde las decisiones competitivas se resuelven en 2026
¿Cómo Funciona Cada LLM por Dentro?
Cuatro LLMs dominan el tráfico generativo en 2026. Cada uno tiene arquitectura, retrieval, y citation behavior distintos. Entender las diferencias técnicas es el prerrequisito para optimización específica.
ChatGPT (OpenAI)
Retrieval architecture: Según análisis de industria, ChatGPT Search aparece fuertemente asociado al índice de Bing, con una capa de recuperación y ranking propia de OpenAI. Cuando un usuario activa browsing mode o hace una query informacional actual, el sistema retrieva live results. Cuando responde desde pretraining, no cita nada. (Microsoft Copilot opera sobre el mismo índice Bing con su propio GPT-4 layer, lo cual crea overlap técnico pero UX diferente.)
Posición en tráfico web medido: Aproximadamente 65-68% del mercado AI chatbot según Similarweb enero 2026, desde 87.2% hace un año. Sigue dominando pero la erosión es real y sostenida.
Citation patterns (según análisis de industria):
- Wikipedia aparece sobrerrepresentada en sus top citations
- Según análisis de Semrush, aproximadamente 90% de páginas citadas por ChatGPT Search rankean en posición 21 o inferior en Google para queries relacionadas
- News y established publishers forman la mayor proporción de fuentes citadas
- Cita solo con browsing activo; no cita en modo training-data-only
Strategic implication para Médicos en Tijuana: ChatGPT es el LLM donde indexabilidad tradicional, autoridad de dominio y presencia en Bing siguen importando más visiblemente. Pero ranking top 10 no garantiza citación: muchas citas de ChatGPT vienen de URLs fuera de la primera página. Esto cambia la lectura operativa: SEO técnico (indexación, schema, mobile, velocidad, backlinks autoritativos) es prerequisite, pero la ventaja no viene de pelear por top 10. Viene de tener contenido específico, profundo, extraíble, que ChatGPT pueda encontrar en cualquier posición y elegir citar.
Cualquier “experto” que te diga que SEO murió no está optimizando para ChatGPT. Está vendiendo un pitch. Pero quien te diga que top 3 en Google es la meta para AI visibility tampoco entendió el dato. El trabajo es schema JSON-LD completo, FAQ content profundo, y autoridad distribuida (no concentrada en una sola URL hit).
Claude (Anthropic)
Retrieval architecture: Claude puede usar web search con fuentes citadas cuando la función está activa. En algunos análisis de industria aparece asociado a Brave Search o third-party search, pero Anthropic no lo documenta públicamente como regla universal. El universo de fuentes que Claude considera es diferente desde el inicio según el proveedor de búsqueda activo.
Training cutoff: Varía por modelo. Los cutoffs de Claude cambian con frecuencia y son más recientes para modelos más nuevos. No trates “enero 2025” o cualquier fecha específica como verdad global; consulta la documentación oficial para el modelo específico que los Pacientes estén usando.
Citation behavior (el outlier): Claude no cita por default en todas las experiencias. Cita cuando web search está activo, cuando el usuario pide fuentes explícitamente, o cuando está configurado vía API con herramientas específicas. En las UIs consumer (claude.ai), los Pacientes pueden preguntar “¿dónde sacaste esa información?” y Claude entregará fuentes si las usó, o dirá que respondió desde training.
User-generated content bias: El outlier más importante. Yext Research, analizando 17.2 millones de AI citations (análisis publicado 2026), encontró que Claude cita user-generated content a 2-4x el rate de otros modelos. En Food & Beverage, Claude citó UGC casi 10 veces más que Gemini. La causa exacta no está probada. Operativamente, el patrón importa: Claude cita UGC mucho más que otros modelos.
Posición en tráfico web medido: Aproximadamente 2% del tráfico web medido por Similarweb en enero 2026, pero segmentos B2B y power users (developers, consultants, academics) lo usan más pesado. 5.67 average citations per response.
Strategic implication para Médicos en Tijuana: Claude es el LLM donde RealSelf, Doctoralia, Google Reviews, testimonios de Pacientes, y contenido UGC de foros (subreddits de healthcare, grupos de Facebook de medical tourism) tienen peso desproporcionado. Si tu Práctica invierte poco en reputación en plataformas de reviews, Claude tiene menos material recuperable y menos señales UGC para justificar mencionarte. Conversely, si tienes presencia sólida en RealSelf con before/after photos, testimonios, y responses consistentes a reviews, Claude es donde ese trabajo genera ROI de citation. Para contenido reciente: no dependas de memoria del modelo. Necesitas indexación, web search activa, fuentes externas, y UGC recuperable. La realidad práctica para un Cirujano: un Paciente en Claude necesita activar web search o pedir fuentes explícitamente. Sin eso, Claude responde desde entrenamiento y tu Práctica puede no aparecer.
Gemini (Google)
Retrieval architecture: Gemini puede fundamentar respuestas usando Google Search (grounding feature documentada por Google) y está profundamente conectado al ecosistema Google. En la práctica, esto vuelve críticos Google Business Profile, Knowledge Graph, schema y consistencia NAP como señales operativas.
Trayectoria en tráfico web: Aproximadamente 18-22% del tráfico web medido por Similarweb en enero 2026, desde 5.4% hace un año. Es el LLM con el crecimiento más rápido en 2025-2026. Google’s product push hacia Gemini dentro de Google Search, Workspace, Android y AI Mode está funcionando.
Citation patterns (según análisis de industria):
- 8.34 average citations per response
- Preferencia fuerte por official websites
- Aproximadamente 86% semantic overlap con Google AI Overviews (answers contextualmente similares)
- Pero solo 13.7% URL overlap (cita URLs diferentes para los mismos temas)
- Esta divergencia sugiere different authority weighting entre Gemini chat y Google AIO
Strategic implication para Médicos en Tijuana: Gemini es donde Google Knowledge Graph y entity architecture importan más que en ningún otro LLM. Schema.org Physician + MedicalOrganization rigoroso. Google Business Profile completo y verified. sameAs arrays con URLs autoritativas (CMCPER, ISAPS, directories oficiales). Reviews en Google específicamente. Si tu Práctica tiene Google Business Profile incompleto o información inconsistente cross-platform, Gemini tiene menos señales para construirte como entidad confiable y puede priorizar competidores con perfiles más consistentes. El low URL overlap con AIO significa que aparecer en Google AI Overviews (AEO target) no garantiza aparición en Gemini chat (LLMO target). Son territorios distintos que requieren trabajo específico.
Perplexity
Retrieval architecture: Índice propio más Bing hybrid, con retrieval siempre en tiempo real. Perplexity es citation-first por design: cada respuesta incluye inline references con per-claim attribution. Esto es product philosophy, no add-on feature.
Citation volume (según análisis de Whitehat SEO): 21.87 average citations per response. El highest de las plataformas analizadas. Perplexity cita más agresivamente porque su producto core es “respuesta verificable,” no “respuesta fluida.”
Freshness weighting: 82% citation rate para contenido publicado en los últimos 30 días (según el mismo análisis). Es el highest freshness weighting de cualquier LLM principal en el estudio. Perplexity prioriza activamente contenido fresco.
Source bias:
- Reddit aparece sobrerrepresentado en análisis de top citations de Perplexity
- Topical authority content tiene weighting elevado (revisar metodología por vertical)
- Tow Center for Digital Journalism midió 37% error rate en una prueba específica de recuperación de noticias: el mejor del set tested, pero todavía una tasa de error brutal
Posición en tráfico web medido: Aproximadamente 2% del tráfico web medido en enero 2026, pero targeting 1B weekly queries by end of 2026. Growth path agresivo.
Strategic implication para Médicos en Tijuana: Perplexity es el LLM donde freshness protocols (updates cada 7-14 días), topic clusters internos, y presencia en Reddit (subreddits como r/PlasticSurgery, r/bariatrics, r/medical_tourism) tienen peso desproporcionado. Si tu Práctica publica contenido evergreen sin actualizar, Perplexity deprioriza tu citation. Conversely, si tienes ciclos de refresh sistemáticos más presencia auténtica en discussions relevantes de Reddit (no spam; contribuciones genuinas), Perplexity puede convertirse en tu canal de citation más confiable. Para healthcare específicamente, Perplexity también tiene scrutiny adicional porque su error rate, aunque lowest en la prueba citada, sigue siendo elevated en medical queries. Contenido con citations explícitas y fuentes autoritativas performs better.
Cruce entre los Cuatro
Junta los cuatro y emergen patterns importantes:
Overlap entre LLMs es bajo. Whitehat SEO’s análisis de 118K respuestas encontró que solo 11% de dominios citados aparecen cross-platform. Una Práctica médica puede ser altamente visible en ChatGPT y casi invisible en Claude, o dominar en Perplexity mientras Gemini la ignora completamente. No es bug. Es strategic difference en cómo cada plataforma indexa y prioriza.
Overlap con Google rankings también es bajo. Algunos análisis de industria reportan approximately 12% de citations de IA también rankean en Google top 10 (Ahrefs via Discovered Labs, dataset de 15K prompts). El Invisibility Gap: rankings fuertes en SEO tradicional no garantizan citation en LLMs, y viceversa.
Cada LLM premia different signals:
- ChatGPT: Wikipedia + indexabilidad tradicional + profundidad de contenido
- Claude: user-generated content + reviews + citations explícitas
- Gemini: Knowledge Graph + official websites + Google Business Profile
- Perplexity: freshness + Reddit + topical density
Decisión estratégica obvia para Médicos en Tijuana: una sola táctica no cubre los cuatro. Intentar hacerlo cuesta tiempo sin resultados claros en ninguno. La alternativa práctica: identificar 2-3 LLMs prioritarios según tu audience (la próxima sección aborda esto para el contexto cross-border específico), optimizar con rigor per-LLM en esos, y aceptar visibilidad secundaria en los demás. Cirujanos individuales tienen ventaja operativa aquí: pueden ejecutar platform-specific playbooks sin la burocracia multi-médico que frena implementación rigurosa.
¿Qué hace Diferente al LLMO para Médicos en Tijuana?
LLMO para B2B SaaS es una cosa. LLMO para ecommerce es otra. LLMO para Médicos en Tijuana tiene tres capas que los frameworks genéricos no cubren, y las Prácticas que las ignoran están construyendo presencia digital en los LLMs equivocados por las razones equivocadas.
Primera: healthcare es YMYL territory en los cuatro LLMs. Sin excepciones.
Los modelos tratan contenido médico con escrutinio más alto que cualquier otro vertical. No es uniform pero es consistente. Claude con Constitutional AI es explícitamente conservador. ChatGPT y Gemini tienen safeguards médicos integrados desde el nivel de arquitectura. Perplexity, a pesar del 37% error rate más bajo del set medido por Tow Center en la prueba de recuperación de noticias, mantiene error rates elevated en queries médicos específicos.
La evidencia cuantitativa es dura. El estudio de clinical questions evaluó cinco sistemas LLM: ChatGPT-4, Claude 3 Opus y Gemini Pro 1.5 como general-purpose, más OpenEvidence y ChatRWD como RAG-based. Los general-purpose produjeron respuestas relevantes y evidence-based en 2-10% de casos. Los RAG-based subieron a 24-58%.
Traducción operativa: los Pacientes que hacen preguntas clínicas profundas no reciben respuestas confiables en ningún LLM. Pero los Pacientes que preguntan sobre Cirujanos específicos, procedimientos disponibles en Tijuana, credenciales verificables, timing de recuperación cross-border, sí reciben respuestas utilizables. LLMO opera en ese segundo territorio. El primer territorio lo pierde contra PubMed y peer-reviewed publications, y eso está bien. La optimización no es para dominar cada query sino para dominar las queries que importan a Pacientes evaluando tu Práctica.
Esto cambia completamente el calculus de contenido. Un blog post sobre “mecanismos bioquímicos de recuperación post-abdominoplastia” compite contra literatura médica y pierde. Un blog post sobre “protocolo de recuperación post-abdominoplastia para Pacientes cruzando de San Diego a Tijuana” compite en un territorio donde tu Práctica tiene información original, específica, verificable. El LLMO exitoso sabe de qué lado de esa línea escribir.
Segunda: el shift en tráfico web reescribe la ecuación de priorización.
Hace doce meses, ChatGPT comandaba 87.2% del tráfico web medido. Hoy (Similarweb enero 2026) comanda aproximadamente 65-68%. Gemini pasó de 5.4% a 18-22% en el mismo periodo. Esto no es volatilidad estacional. Es reestructuración estructural del tráfico web de chatbots IA que mueve directamente dónde tus Pacientes buscan (aunque no refleja necesariamente el uso total de IA incluyendo API, enterprise, o surfaces embebidas).
Implicaciones prácticas para el mercado Tijuana:
-
Pacientes tech-savvy de California. Tu primary market. Google empuja Gemini dentro de Google Search, Android, Workspace, AI Mode. Si tu Práctica tiene Knowledge Graph entity incompleto, Gemini tiene menos material para construirte como opción verificable. Es apagar las luces en el LLM que más crece.
-
Pacientes older demographic, 55+. Candidato frequent para contouring post-pérdida masiva de peso, rinoplastía de revisión, procedimientos maduros. La inercia de usar ChatGPT adquirida en 2023-2024 persiste. No han migrado, y probablemente no lo harán pronto.
-
Pacientes research-heavy pre-medical-tourism. Perplexity es su herramienta. Evalúan múltiples opciones, verifican credentials, comparan testimonios. Son los que booking consultations después de semanas de research, no días.
-
Pacientes que usan Claude. Segmento pequeño. Se inclina hacia B2B y power-users. Menos common para consumer healthcare queries. Pero existe, y en segmentos high-value (software founders, consultants, academics considering procedures), over-indexa.
Una Práctica con presupuesto limitado de optimización no puede ejecutar con rigor igual en los cuatro. La priorización operativa para Tijuana 2026: ChatGPT y Gemini primero (cubren aproximadamente 85-90% del tráfico web combinado), Perplexity segundo (audience research-heavy), Claude tercero (pequeño pero existente en high-value segments). Intentar cubrir los cuatro con presupuesto limitado produce visibilidad mediocre en todos y dominancia en ninguno.
Tercera: bilingüe es capa extra en LLMO que no existe en GEO general.
Los LLMs procesan contenido inglés vs español con patterns diferentes. El training data bias es real y medible: existe más contenido en inglés sobre medical tourism Tijuana que en español, por órdenes de magnitud. Esto significa:
- El mismo Paciente puede recibir respuestas diferentes preguntando en inglés vs español al mismo LLM
- Contenido paralelo EN-ES bien estructurado construye Knowledge Graph recognition cross-language (crítico para Gemini)
- Hreflang implementation es más crítica en LLMO que en SEO tradicional
- Schema bilingüe con same entity @id across idiomas construye una entidad consistente que los LLMs pueden triangular
Una Práctica que publica solo en español pierde queries en inglés de Pacientes estadounidenses. Una que publica solo en inglés pierde queries en español de Pacientes locales o hispanohablantes en US. Una que publica en ambos pero no los conecta estructuralmente (hreflang + schema @id matching) pierde el compounding effect de entity authority cross-language.
El workflow que funciona: cada pieza de contenido core tiene versión en ambos idiomas, schema nodes paralelos con matching @id structure, hreflang tags apropiados, canonical references claras. No es traducción palabra por palabra. Es paralelismo estructural que permite a los LLMs construir una sola entidad con coverage bilingüe. Las agencias genéricas que tratan multilingual como afterthought dejan este compounding effect en la mesa.
¿Cómo Adaptar tu Estrategia LLM por LLM?
Con el context técnico y el context Tijuana establecidos, el siguiente paso es táctico. Qué hacer específicamente para cada LLM. Cuatro playbooks. No son mutuamente excluyentes. Pero la prioridad de ejecución define si el trabajo se compound o se disipa.
Playbook ChatGPT
Prioridad: Alta. 65-68% tráfico web medido. El LLM donde tu Práctica compite por la mayor parte del tráfico de Pacientes estadounidenses que buscan Cirujanos en Tijuana.
Lo que funciona:
1. SEO técnico como prerrequisito, no como meta. Según análisis de Semrush, aproximadamente 90% de las páginas citadas por ChatGPT Search rankean en posición 21 o inferior en Google para queries relacionadas. Esto cambia la lectura operativa: indexabilidad Bing y Google, Core Web Vitals, schema markup, mobile optimization son prerrequisito. Pero pelear por top 10 no es la ventaja. La ventaja viene de tener contenido específico y extraíble que ChatGPT pueda citar desde cualquier posición.
2. Schema JSON-LD completo. Physician + MedicalOrganization + BlogPosting + FAQPage. ChatGPT extrae entity information durante retrieval. Schema incompleto es entity débil, y entity débil es citation menos probable. La granularidad importa: Physician schema con hasCredential arrays para CMCPER, cédula profesional, QUAD A, ISAPS, cada una con recognizedBy declarado explícitamente.
3. Wikipedia presence cuando el gate lo permite. Wikipedia aparece sobrerrepresentada en top citations de ChatGPT en varios análisis. Para Médicos individuales, Wikipedia tiene notability guidelines estrictas, entonces no es ruta realista para todos. Pero menciones en artículos relevantes (procedimientos específicos, técnicas publicadas, case studies de literatura médica citable) son high-value signals. Si tu Práctica tiene contribuciones publicadas en peer-reviewed journals, push para que sean citadas en Wikipedia articles relevantes.
4. FAQ content profundo y específico. ChatGPT extrae extremely bien de FAQ structures. FAQPage schema más Q&A content que cubre queries reales de Pacientes cross-border. No FAQ genéricos reciclados de templates. FAQs específicos: “¿Cómo verifico CMCPER cross-border?” “¿Cuánto dura la recuperación post-abdominoplastia antes de cruzar la frontera?” “¿Qué seguros US cubren complicaciones de cirugía en México?”
5. Freshness moderada. ChatGPT no premia freshness tan agresivamente como Perplexity, pero contenido rancio (2+ años sin actualizar) se deprioriza. Ciclos trimestrales de refresh son suficientes para ChatGPT específicamente.
Lo que no funciona:
- Contenido ultra-thin. ChatGPT favors depth. Posts de 600 palabras rellenos de marketing-speak no compiten.
- Clickbait headlines sin substance. El modelo reconoce el mismatch título-contenido y lo penaliza.
- Contenido scraped o heavy-rewrite de otros sitios. ChatGPT identifica derivative content y prefiere fuentes originales.
Playbook Claude
Prioridad: Tercera. Segmento pequeño pero existe y over-indexa en high-value decisions.
Lo que funciona:
1. Reviews y testimonios son base completa. 2-4x citation weighting para UGC según Yext. Esto no es marginal. Es estructural. Si tu Práctica tiene 12 reviews en RealSelf, 7 en Doctoralia, y un Google Business Profile con 4.1 estrellas y 40 reviews, Claude tiene menos material recuperable y menos señales UGC para justificar mencionarte cuando Pacientes preguntan por Cirujanos en Tijuana. 100+ reviews auténticas, rating 4.5+, responses sistemáticas a reviews mixed, es baseline realista. Esto toma 12-18 meses construirlo si arrancas tarde. Empezarlo ayer hubiera sido mejor.
2. Presencia en plataformas UGC healthcare, auténtica.
- RealSelf: perfil completo, before/after photos sistemáticas, Q&A answers activas, “Fellow” status si qualifies, responses a reviews mixed con professionalism
- Doctoralia: perfil verificado, responses a reviews
- Google Reviews: 4.5+ rating target, 100+ reviews, responses a todas las reviews
- Google Business Profile: posts regulares con substance (no filler), Q&A activamente atendido
- Foros relevantes: participación genuina en r/PlasticSurgery, r/bariatrics, r/medical_tourism. No self-promote. Provide expertise. Repeat.
Guardrail crítico para Reddit y foros abiertos: no des consejo médico personalizado en Reddit o en cualquier foro público. Responde con educación general, establece límites claros, y remite siempre a evaluación clínica formal. El límite entre educar y crear una relación médico-paciente percibida es delgado en healthcare cross-border. Un Cirujano serio puede construir authority en Reddit sin cruzar ese límite. Un Cirujano apurado puede generar exposure legal real.
3. Framing conservative en claims médicos. Claude Constitutional AI es especialmente strict. Contenido que hedge apropiadamente (“la mayoría de Pacientes en condiciones similares,” “dependiendo de factores individuales como BMI, edad, historial médico,” “consulta con tu Cirujano sobre tu caso específico”) tiene mejor treatment. Contenido con claims absolutos (“garantizamos resultados,” “100% de nuestros Pacientes”) es deprioritizado como risk signal. Esto no es censorship. Es accuracy. Los Cirujanos serios ya escriben así porque es cómo se comunica la medicina responsable.
4. Fuentes primarias y citations explícitas. PubMed studies, official medical boards (CMCPER, ISAPS, ASAPS vía Smart Beauty Guide), peer-reviewed research. Claude premia content con fuentes externamente verificables. Content con claims afirmativos sin backing se trata como opinión, no como información citable.
5. Realidad práctica del retrieval de Claude. Los Pacientes deben activar web search explícitamente o pedir fuentes. Un Paciente que simplemente pregunta a Claude “¿cuál es el mejor Cirujano en Tijuana?” sin activar retrieval web recibirá respuesta desde training, que puede no incluir tu Práctica. Educar a tu audience para pedir “busca en la web las reseñas y credenciales del Dr. [Nombre]” es ventaja tangible. Los cutoffs de Claude varían por modelo; no dependas de memoria del modelo como estrategia primaria.
Lo que no funciona:
- Claims médicos absolutos sin hedging. Red flag inmediato para Constitutional AI.
- Marketing copy promocional denso. Claude lo reconoce y lo trata como lower-signal source.
- Contenido sin sources explícitas. Entra al bucket de “opinión no verificable.”
Playbook Gemini
Prioridad: Alta. 18-22% y creciendo rápido. El LLM donde el trabajo de Google Business Profile y schema structurado compound más directamente.
Lo que funciona:
1. Google Knowledge Graph entity building es el trabajo principal. Gemini puede fundamentar respuestas usando Google Search. Si tu Práctica, tus Médicos individuales, tu Clínica no aparecen como entidades coherentes en Knowledge Graph, Gemini tiene menos señales para construirlas como entidades confiables. El trabajo requiere:
- Wikipedia/Wikidata presence cuando notable (no siempre es feasible)
- Schema.org structured data comprehensive con sameAs arrays
- URLs autoritativas verificables (CMCPER, ISAPS, RealSelf, PubMed) en sameAs
- Google Business Profile completo y verified
- NAP consistency cross-platform (Name, Address, Phone idénticos everywhere)
2. Official website signals fuertes. Gemini favors strongly official websites. Tu sitio propio es la source of truth. Domain authority, HTTPS, mobile optimization, clean architecture, content renderizado server-side (no dependencia de JavaScript crítico para content).
3. Schema.org Physician + MedicalOrganization rigoroso. No optional. Cada Cirujano con Physician schema completo. Cada Clínica con MedicalOrganization schema. Relaciones worksFor/employee declaradas explícitamente. hasCredential arrays con EducationalOccupationalCredential nodes para cada certificación. Esto ya se cubre en la metodología Tersefy: para Gemini es el requisito mínimo, no el objetivo avanzado.
4. Google Business Profile como canal LLMO, no solo SEO local. Muchos Médicos tratan GBP como “cosa de local SEO.” Para Gemini, GBP alimenta Knowledge Graph que alimenta directamente las respuestas. Posts regulares con substance (casos, updates, educational content). Q&A answers activamente atendidos. Photos actualizadas y relevantes. Services descritos con detail. Reviews con responses sistemáticos.
5. Hreflang y schema bilingüe. Para el mercado cross-border de Tijuana, emparejar nodos de schema en inglés y español bajo el mismo @id es lo que permite a Gemini fusionar la autoridad de ambos idiomas en una sola entidad. Sin esta estructura, tu contenido EN y tu contenido ES compiten entre sí en lugar de triangularse.
6. Content que gana Google AI Overviews también tiende a ganar Gemini chat. Con el caveat medido: 86% semantic overlap pero solo 13.7% URL overlap. Los temas se sobreponen. Las URLs citadas no. Son territorios distintos en ejecución aunque los signals underlying se correlacionan. La divergencia probable: Google AIO tiene constraints de compliance más estrictos que Gemini chat, lo cual explica por qué temas idénticos pueden citar URLs distintas según el vehicle.
Lo que no funciona:
- NAP inconsistency cross-platform. Si tu teléfono está diferente en Google Business Profile vs tu sitio vs RealSelf vs Doctoralia, Gemini tiene dificultad construyendo entidad confiable.
- Schema incompleto o con errores. Rich Results Test fallando es señal directa a Gemini de que tu entidad no está bien formada.
- Dependencia heavy en JavaScript para content rendering. Crawling issues matan la indexación.
Playbook Perplexity
Prioridad: Segunda. Audience research-heavy pre-medical-tourism. Los Pacientes que llegan a tu consulta después de comparar 6 opciones durante 3 semanas usan Perplexity.
Lo que funciona:
1. Freshness protocols agresivos. 82% citation rate para contenido <30 días según análisis de Whitehat SEO. Ciclos de refresh 7-14 días en contenido core. Version blocks visibles con dates. dateModified schema actualizado en cada refresh. Cada refresh debe ser sustantivo (new data, updated stats, added sections, corrections), no cosmetic. Cambiar solo la fecha sin actualizar contenido no debería tratarse como refresh real; si el sistema compara contenido o señales externas, ese cambio no añade valor.
2. Reddit presence auténtica es donde casi nadie llega. Reddit aparece sobrerrepresentado en análisis de top citations de Perplexity. Para healthcare medical tourism específicamente:
- r/PlasticSurgery: ~350K members, discussions activas de procedimientos, foro core
- r/bariatrics: ~40K members, post-bariatric procedures, candidatos frequent para contouring
- r/PlasticSurgery_Mexico: ~15K members, specific medical tourism MX
- r/medical_tourism: ~8K members, broader medical tourism context
Participación auténtica significa responder preguntas con expertise sin self-promote. El algoritmo de Reddit castiga promotional content. Perplexity’s retrieval layer también. Pero un Cirujano que sistemáticamente aporta valor en discussions construye authority que Perplexity retrieva preferencialmente. La realidad del tiempo: la mayoría de Cirujanos no puede dedicar horas semanales a Reddit. Una respuesta técnica bien escrita por semana durante 12 meses construye el signal sin burnout. La mayoría de Cirujanos no lo hace. Ventaja competitiva asimétrica disponible.
Recordatorio del guardrail: mismas reglas YMYL que en Playbook Claude. Educación general, no consejo personalizado, siempre remitir a evaluación clínica formal.
3. Topic clusters densos con internal linking. Perplexity premia topical authority en weighting elevado. Un artículo sobre “contouring post-pérdida masiva de peso” linkeando a artículos sobre “recuperación abdominoplastia,” “complicaciones post-bariatric body lift,” “timing de cruce fronterizo post-operatorio,” construye topical density que Perplexity reconoce y prioriza citation.
4. Citations y data explícitas. Perplexity extrae data específica con inline attribution. Statistics concretas, studies peer-reviewed, proprietary data de tu Práctica, citations de fuentes autoritativas. Esta preferencia está alineada con el paper GEO de Princeton (Aggarwal et al. 2024), que encontró hasta 40% de mejora de visibilidad con citations, quotations y statistics en motores generativos. Operativamente: Perplexity es donde esa estructura se vuelve más visible por sus referencias inline.
5. Original research cuando es posible. Perplexity premia unique content sources. Proprietary surveys, internal data anonimizada de tu Práctica, case studies con methodology clara. Esto es información que ningún competidor puede replicar porque viene de tu operación específica. Genera citations que compound.
Lo que no funciona:
- Contenido stale. 3+ meses sin updates en topics competitivos es señal directa de deprioritization.
- Generic content sin data points específicos. Perplexity prefiere fuentes con substance citable.
- Reddit spam. Deprioritization rápido y posible shadowban en subreddits. Una vez baneado, recuperar access es difícil.
Cross-platform signals que funcionan en los cuatro
Después de los playbooks individuales, hay signals que trabajan across los cuatro LLMs simultaneously:
1. Princeton GEO framework base. Citations, quotations, statistics. 30-40% visibility boost demostrado en el paper original (Aggarwal et al. 2024, KDD). Esto sigue siendo fundacional incluso en LLMO granular.
2. Entity architecture via schema completa. Person + Physician + MedicalOrganization + FAQPage + BlogPosting. Cada LLM extrae from schema differently pero todos lo usan. Schema completo es insurance policy cross-LLM.
3. 10+ independent domain mentions. Diversidad de fuentes autoritativas externas triangulando tu Práctica. Ningún LLM fully ignora cross-domain validation.
4. Regular content refresh cycles. Aún con ChatGPT donde freshness es moderate signal, contenido completely stale se deprioriza. Ciclos sistemáticos son baseline mínimo.
5. Especificidad verificable. La voz operator ayuda indirectamente porque fuerza especificidad: números, fuentes, ejemplos, restricciones y claims verificables. Los LLMs no premian ningún estilo específico. Premian contenido con menos ambigüedad, más fuentes verificables, y más data específica que competidores.
¿Cómo Medir tu Visibilidad en Cada LLM?
Un framework de LLMO sin measurement es una opinión bien redactada. La medición cross-LLM es el trabajo que separa Prácticas que optimizan con data de Prácticas que optimizan con corazonadas.
El test de estrés LLMO.
Construcción básica: 20 queries relevantes, 4 LLMs, 1 ronda inicial. 80 data points baseline. Toma 2-3 horas ejecutar manualmente.
Queries que deben incluirse:
- Branded queries. “¿Quién es el Dr. [Nombre] en Tijuana?” Test de baseline entity recognition.
- Unbranded competitive. “¿Cuáles son los mejores Cirujanos plásticos en Tijuana?” Dónde apareces en la shortlist (o si no apareces).
- Specific procedure. “¿Qué Cirujano hace mejor contouring post-pérdida masiva de peso en Tijuana?” Tu especialidad específica.
- Cross-border logistic. “¿Cómo funciona el proceso para un Paciente de San Diego yendo a Tijuana para abdominoplastia?” Tu territorio diferenciador.
- Trust/verification. “¿Cómo verifico las credenciales de un Cirujano plástico mexicano?” La query que tu contenido de verificación debería dominar.
Ejecuta las 20 queries en ChatGPT, Claude, Gemini, Perplexity. Documenta para cada query en cada LLM:
- ¿Apareciste? Sí/No
- Si sí: ¿en qué posición dentro de la respuesta? ¿primera mención, segunda, tercera?
- ¿Qué competidores aparecen?
- ¿Qué fuentes cita el LLM? (aparece directamente en Perplexity, más subtle en ChatGPT/Claude)
- ¿La información sobre ti es accurate?
Nota operativa: Esta tarea es el tipo perfecto para delegar a un office manager o virtual assistant. El Cirujano no necesita ejecutar personalmente 80 queries. Necesita revisar el resultado consolidado y decidir prioridades.
Métricas específicas por LLM.
Cada LLM requiere tracking adaptado a sus mecánicas:
-
ChatGPT. Citation presence en browsing mode. Ranking position dentro de respuestas. Competitor inclusion rate. Wikipedia mentions cuando aplica.
-
Claude. Mentioned sources cuando el user pide citations. UGC citations (RealSelf, Doctoralia appearing). Conservative framing alignment. Response consistency across similar queries.
-
Gemini. Knowledge Graph entity accuracy. Google AI Overview presence paralelo. Google Business Profile data pull-through. Cross-reference con Google Search ranking.
-
Perplexity. Citation count per response. Domain diversity de citations. Freshness de citations (date de fuentes citadas). Inline reference accuracy.
Frecuencia de measurement.
Mensual para tracking baseline stable. Quincenal para refreshes active post-optimization. Semanal durante primeras 4-6 semanas de deployment nuevo de contenido. La cadencia importa: daily es overkill (los LLMs no cambian day-to-day noticeably), quarterly es too infrequent para detectar regresiones.
Herramientas emergentes.
El espacio de LLMO tracking tools está consolidándose. Wellows, Minuttia tooling, Semrush AI tracking, y varias otras están emergiendo en 2026. Ninguna es mature todavía al nivel de Google Search Console para SEO tradicional. Por ahora, tracking manual supplementado con tooling selectivo es el realistic workflow. La ventaja del manual tracking es que fuerzas awareness directa de cómo cada LLM responde, awareness que los dashboards no pueden replicar.
Qué hacer con los data points.
Baseline establecido, el workflow de optimization loop se vuelve:
- Identify gaps (dónde no apareces, dónde apareces tarde, dónde competidores dominan)
- Priorize basado en: frecuencia de query + tráfico del LLM + distancia actual a citation
- Ejecuta optimization específica según el playbook del LLM relevante
- Re-mide después de 30-60 días (el time to citation update varía por LLM)
- Itera
La trampa común: optimizar para vanity metrics cross-LLM (aparición simple en todas). La métrica que importa es aparición en queries de alto intent (specific procedure, cross-border logistic, trust/verification) en los LLMs que tu audience real usa.
Limitaciones que debes Conocer
LLMO maximiza tu visibilidad en LLMs específicos, pero no crea decisión clínica donde la realidad no la sustenta. Los LLMs leen cross-platform (reviews, PubMed, foros, regulatorios). Si tus outcomes no soportan la narrativa construida, eventualmente los modelos detectan la disonancia y deprioritizan tu Práctica o citan advertencias. La optimización técnica amplifica lo que ya existe. No crea realidad donde no hay.
Adicionalmente: el mercado LLM está volatile. ChatGPT cayó aproximadamente 19-22 puntos de tráfico web medido en 12 meses. Gemini triplicó su share. Grok (~2.9%) y DeepSeek (~4%) ya son porcentajes no-triviales. Nuevos LLMs siguen emergiendo. Un playbook perfecto hoy necesita review en 6-12 meses. La inversión sostenible es en fundamentos que transfieren (entity architecture, evidence quality, schema rigor), no en quirks específicos que podrían desaparecer con el próximo modelo.
Respuestas Rápidas
¿Qué es LLMO y cómo se diferencia de GEO?
LLMO (Large Language Model Optimization) optimiza para cada LLM individualmente. GEO (Generative Engine Optimization) trata motores generativos como categoría. LLMO reconoce que ChatGPT, Claude, Gemini y Perplexity tienen mecánicas distintas y requieren adaptación táctica específica.
¿Cuál LLM es más importante para Médicos en Tijuana?
ChatGPT y Gemini sumaron aproximadamente 85-90% del tráfico web de chatbots IA en enero 2026 (Similarweb). Prioridad alta. Perplexity segundo (audience research-heavy pre-medical-tourism). Claude tercero (segmento pequeño pero high-value).
¿ChatGPT y Perplexity usan la misma información?
No. Whitehat SEO analizó 118,000 respuestas y reporta que solo el 11% de los dominios citados aparecen cross-platform. Cada LLM tiene index distinto, retrieval layer distinto, y prioriza fuentes diferentes.
¿Por qué Claude no cita fuentes por default?
Claude cita cuando web search está activo o cuando el usuario pide fuentes explícitamente. No asumas attribution automática en todas las experiencias de Claude. Los Pacientes pueden pedir: busca en la web las reseñas del Dr. X.
¿Cómo afecta Knowledge Graph a Gemini?
Significativamente. Gemini puede fundamentar respuestas usando Google Search y está profundamente conectado al ecosistema Google. Para visibilidad: Google Business Profile, Knowledge Graph, schema y consistencia NAP son señales operativas críticas.
¿Perplexity es más preciso que ChatGPT para temas médicos?
Tow Center midió 37% de respuestas incorrectas para Perplexity en una prueba específica de recuperación de noticias (el mejor resultado del set tested). Eso no prueba superioridad médica general; en healthcare queries todos los LLMs pueden errar.
¿Qué retrieval usa cada LLM principal?
Según análisis de industria: ChatGPT asociado a Bing + OpenAI layer. Claude usa web search (Brave o third-party) cuando está activo. Gemini puede fundamentar con Google Search. Perplexity usa índice propio + Bing hybrid.
¿Cuánto varían los market shares de LLMs?
Mucho. Según tráfico web medido por Similarweb, ChatGPT pasó de 87.2% en enero 2025 a aproximadamente 65-68% en enero 2026. Gemini subió de 5.4% a 18-22% en el mismo periodo.
¿Cómo optimizo para LLMs que aún no existen?
Invirtiendo en fundamentos que transfieren: entity architecture via schema, diversidad de fuentes autoritativas, evidence quality verificable, content freshness sistemática. Los quirks específicos cambian; los signals fundamentales persisten.
¿Necesito estrategia diferente para cada LLM?
Sí tácticamente; no en fundamentos. Schema, evidencia y consistencia de entidad transfieren. Reddit, UGC, Wikipedia y Knowledge Graph requieren ejecución distinta por LLM.
¿Qué content funciona en todos los LLMs?
Contenido con citas, estadísticas y fuentes verificables en estructura FAQ. Princeton GEO study formalizó hasta 40% visibility boost con estos signals combined across engines.
¿Cómo medir aparición en cada LLM?
Manual principalmente. Construye una suite de 20 queries relevantes, ejecuta mensual en los 4 LLMs, documenta presence/position/competitors/sources. Tooling automatizado está emergiendo pero no es mature aún.
¿Perplexity usa ChatGPT o modelos propios?
Mezcla. Perplexity tiene modelos propios Sonar más acceso a GPT, Claude, Gemini en planes pagos. El diferenciador no es el modelo sino el retrieval layer citation-first y su índice propietario.
Siguiente Paso: Ejecuta el Test de Estrés LLMO
El test de estrés LLMO es una auditoría manual que cualquier Práctica puede ejecutar sin herramientas pagadas, sin agencia externa, sin intermediarios.
Setup (15 minutos):
Lista 20 queries que un Paciente estadounidense típico haría al evaluar Cirujanos en Tijuana. Divide en 5 tipos:
- 4 branded: tu nombre, tu Clínica, variaciones
- 4 unbranded competitivas: “mejor Cirujano plástico Tijuana,” “Cirujano bariátrico Tijuana recomendado”
- 4 por procedimiento específico: “contouring post-pérdida peso Tijuana,” “rinoplastía Tijuana precio 2026”
- 4 cross-border logistic: “recuperación post-cirugía Tijuana cruzando a San Diego,” “qué seguros cubren complicaciones México”
- 4 trust/verification: “cómo verifico CMCPER,” “cédula profesional Cirujano mexicano”
Ejecución (2-3 horas):
Abre ChatGPT, Claude, Gemini, Perplexity en cuatro tabs. Pega cada query en cada LLM. Para cada uno de los 80 data points documenta en una hoja de cálculo:
| LLM | Query | Apareciste | Posición | Competidores visibles | Fuentes citadas | Accuracy |
|---|
Análisis (30-60 minutos):
Identifica patterns:
- ¿Apareces en branded queries? (Si no: entity recognition issue)
- ¿Apareces en unbranded competitivas? (Si no: authority gap)
- ¿Qué competidores dominan? (Identifica qué están haciendo diferente)
- ¿Qué LLM es tu mayor gap? (Priorización)
- ¿Qué fuentes cita cada LLM consistentemente? (Guía para outreach)
Acción (ongoing):
Ejecuta mensual. Compara contra baseline. Ajusta contenido, schema, outreach según los patterns que emergen.
Este es trabajo que se puede delegar. Un office manager puede ejecutar las queries. Un virtual assistant puede documentar results. El Cirujano interpreta y decide prioridades con la hoja consolidada.
Recursos gratis para ejecutar:
- Estructura de query suite: diseña según la mezcla 4+4+4+4+4 arriba
- Hoja de cálculo baseline: columnas arriba
- Plantilla de prompts para cada LLM: usa queries exactas, documenta respuestas completas
Los Cirujanos que ejecutan este test trimestralmente durante 2026 acumulan una biblioteca de data que define su roadmap de optimización sin necesidad de guess work. Los que no lo ejecutan siguen asumiendo lo que su Práctica parece en AI search en lugar de verificarlo.
Versión
v1.0 · Publicado 2026-04-24
Primera publicación.
Fuentes
- Aggarwal et al. (2024). GEO: Generative Engine Optimization. arXiv:2311.09735, KDD 2024. Princeton University. arxiv.org/abs/2311.09735
- Yext Research (2026). How ChatGPT, Perplexity, Gemini, and Claude Actually Decide What to Cite. Análisis de 17.2 millones de AI citations across industries. UGC citation patterns 2-4x Claude vs competitors. yext.com
- Whitehat SEO (2026). Perplexity vs ChatGPT vs Gemini: AI Citations. Análisis de 118,000 respuestas generadas por IA. 11% cross-platform domain overlap. 21.87 citations Perplexity. 82% freshness <30 días Perplexity. whitehat-seo.co.uk
- Discovered Labs (2025-2026). AI Citation Patterns: How ChatGPT, Claude, and Perplexity Choose Sources. CITABLE framework. Attribution: Ahrefs analysis mostrando approximately 12% overlap AI citations vs Google top 10 en 15K prompts dataset.
- Similarweb (enero 2026). AI Chatbot Web Traffic Share Data. Tráfico web medido, no cognitive market share completo. ChatGPT 65-68% (rango estimaciones preliminares), Gemini 18-22%, DeepSeek ~3.9%, Grok ~2.9%, Perplexity ~2.1%, Claude ~2.0%.
- Tow Center for Digital Journalism (2025). Testing de AI platforms en news retrieval accuracy. Perplexity 37% incorrect rate (lowest del set en la prueba específica; no es medida de accuracy médica general).
- Semrush (2025-2026). Analysis de ChatGPT Search citation patterns showing approximately 90% de páginas citadas rankean en posición 21 o inferior en Google para queries relacionadas.
- Answering real-world clinical questions using LLM systems (2024). Estudio evaluando ChatGPT-4, Claude 3 Opus, Gemini Pro 1.5 vs RAG systems. 2-10% evidence-based en general-purpose LLMs vs 24-58% en RAG. arxiv.org/abs/2407.00541
- Forrester Research (2026). B2B Buyer Behavior. 94% de B2B buyers usan AI search engines para vendor research.
- Chartbeat (2025). Global Organic Search Traffic Report. Google traffic -33% YoY global, -38% US publishers.
- Anthropic. Claude Web Search Documentation. Claude supports web search con fuentes citadas cuando la función está activa. docs.anthropic.com
- Consejo Mexicano de Cirugía Plástica Estética y Reconstructiva (CMCPER). cmcper.org.mx
- Schema.org Physician vocabulary. schema.org/Physician