Uso de Python y Streamlit para descubrir oportunidades de palabras clave con sorprendente distancia

Estás leyendo la publicación: Uso de Python + Streamlit para encontrar oportunidades de palabras clave de distancia sorprendente

Python es una excelente herramienta para automatizar tareas repetitivas y obtener información adicional sobre los datos.

En este artículo, aprenderá cómo crear una herramienta para verificar qué palabras clave están cerca de clasificarse en las posiciones uno a tres y le indicará si existe la oportunidad de incluir esas palabras clave en la página de forma natural.

Es perfecto tanto para principiantes como para profesionales de Python y es una excelente introducción al uso de Python para SEO.

Si solo desea quedarse atrapado, hay un práctico aplicación optimizada disponible para el código. Esto es fácil de usar y no requiere experiencia en codificación.

También hay un Hoja Colaboratoria de Google si desea hurgar con el código. Si puede rastrear un sitio web, ¡puede usar este script!

Aquí hay un ejemplo de lo que haremos hoy:

Estas palabras clave se encuentran en el título de la página y H1, pero no en la copia. Agregar estas palabras clave de forma natural a la copia existente sería una manera fácil de aumentar la relevancia de estas palabras clave.

Al tomar la pista de los motores de búsqueda y, naturalmente, incluir las palabras clave faltantes para las que un sitio ya se clasifica, aumentamos la confianza de los motores de búsqueda para clasificar esas palabras clave más arriba en los SERP.

Este informe se puede crear manualmente, pero lleva bastante tiempo.

Entonces, vamos a automatizar el proceso usando una secuencia de comandos Python SEO.

Vista previa de la salida

Esta es una muestra de cómo se verá el resultado final después de ejecutar el informe:

El resultado final toma las cinco oportunidades principales por volumen de búsqueda para cada página y las coloca ordenadamente en forma horizontal junto con el volumen de búsqueda estimado.

También muestra el volumen de búsqueda total de todas las palabras clave que una página tiene a una distancia sorprendente, así como el número total de palabras clave al alcance.

Luego, se verifican las cinco palabras clave principales por volumen de búsqueda para ver si se encuentran en el título, H1 o copia, y luego se marcan como VERDADERO o FALSO.

¡Esto es genial para encontrar victorias rápidas! Simplemente agregue la palabra clave que falta de forma natural en la copia de la página, el título o H1.

Empezando

La configuración es bastante sencilla. Solo necesitamos un rastreo del sitio (idealmente con una extracción personalizada para la copia que desea verificar) y un archivo exportado de todas las palabras clave para las que se clasifica un sitio.

Esta publicación lo guiará a través de la configuración, el código y se vinculará a una hoja de Google Colaboratory si solo desea quedarse atascado sin codificarlo usted mismo.

Para empezar necesitarás:

Lo llamamos Informe de distancia llamativa porque señala las palabras clave que se encuentran fácilmente a distancia llamativa.

(Hemos definido la distancia llamativa como palabras clave que se clasifican en las posiciones 4 a 20, pero hemos hecho que esta sea una opción configurable en caso de que desee definir sus propios parámetros).

Informe Striking Distance SEO: Primeros pasos

1. Rastrear el sitio web de destino

  • Configure un extractor personalizado para la copia de la página (opcional, pero recomendado).
  • Filtre las páginas de paginación del rastreo.

2. Exporte todas las palabras clave que el sitio clasifica para usar su proveedor favorito

  • Filtre las palabras clave que se activan como un enlace de sitio.
  • Elimine las palabras clave que se activan como una imagen.
  • Filtrar palabras clave de marca.
  • Utilice ambas exportaciones para crear un informe de distancia de impacto procesable a partir de la palabra clave y rastree los datos con Python.

Rastreo del sitio

Opté por usar Screaming Frog para obtener el rastreo inicial. Cualquier rastreador funcionará, siempre que la exportación CSV use los mismos nombres de columna o se les cambie el nombre para que coincidan.

El script espera encontrar las siguientes columnas en la exportación CSV de rastreo:

“Dirección”, “Título 1”, “H1-1”, “Copia 1”, “Indexabilidad”

Configuración de rastreo

Lo primero que debe hacer es dirigirse a los ajustes de configuración principales dentro de Screaming Frog:

Configuración > Araña > Rastreo

Los principales ajustes a utilizar son:

y el escenario.

(La secuencia de comandos funcionará con todo lo demás seleccionado, ¡pero el rastreo tardará más en completarse!)

A continuación, está en el Extracción pestaña.

Configuración > Araña > Extracción

Como mínimo, necesitamos extraer el título de la página, H1, y calcular si la página es indexable como se muestra a continuación.

La indexabilidad es útil porque es una manera fácil para que el script identifique qué URL colocar de una sola vez, dejando solo las palabras clave que son elegibles para clasificar en los SERP.

Si el script no puede encontrar la columna de indexabilidad, seguirá funcionando con normalidad, pero no diferenciará entre las páginas que pueden clasificarse y las que no.

Configuración de un extractor personalizado para la copia de página

Para verificar si una palabra clave se encuentra dentro de la copia de la página, debemos configurar un extractor personalizado en Screaming Frog.

Configuración > Personalizado > Extracción

Nombre el extractor “Copiar” como se ve a continuación.

Importante: La secuencia de comandos espera que el extractor se llame “Copiar” como se indicó anteriormente, ¡así que verifique dos veces!

Por último, asegúrese Extraer texto se selecciona para exportar la copia como texto, en lugar de HTML.

Hay muchas guías en línea sobre el uso de extractores personalizados si necesita ayuda para configurar uno, por lo que no lo volveré a mencionar aquí.

🔥 Recomendado:  Incumplimiento de Twitter: datos de 400 millones de usuarios supuestamente a la venta en la dark web

Una vez que se ha configurado la extracción, es hora de rastrear el sitio y exportar el archivo HTML en formato CSV.

Exportando el archivo CSV

Exportar el archivo CSV es tan fácil como cambiar el menú desplegable que se muestra debajo de Interno a y presionar el botón Exportar.

Interno > HTML > Exportar

Después de hacer clic Exportares importante asegurarse de que el tipo esté configurado en formato CSV.

La pantalla de exportación debería verse como la siguiente:

Consejo 1: Filtrado de páginas de paginación

Recomiendo filtrar las páginas de paginación de su rastreo seleccionando Respetar Siguiente/Anterior bajo la Avanzado ajustes (o simplemente eliminándolos del archivo CSV, si lo prefiere).

Consejo 2: guardar la configuración de rastreo

Una vez que haya configurado el rastreo, vale la pena guardar la configuración de rastreo (que también recordará la extracción personalizada).

Esto ahorrará mucho tiempo si desea volver a utilizar el script en el futuro.

Archivo > Configuración > Guardar como

Exportación de palabras clave

Una vez que tengamos el archivo de rastreo, el siguiente paso es cargar su herramienta de investigación de palabras clave favorita y exportar todas las palabras clave para las que clasifica un sitio.

El objetivo aquí es exportar todas las palabras clave para las que se clasifica un sitio, filtrando las palabras clave de marca y cualquiera que se active como un enlace de sitio o una imagen.

Para este ejemplo, estoy usando el Informe de palabras clave orgánicas en Ahrefs, pero funcionará igual de bien con Semrush si esa es su herramienta preferida.

En Ahrefs, ingresa el dominio que te gustaría registrar Explorador del sitio y elige Palabras clave orgánicas.

Site Explorer > Palabras clave orgánicas

Esto mostrará todas las palabras clave para las que se clasifica el sitio.

Filtrado de enlaces de sitio y enlaces de imagen

El siguiente paso es filtrar las palabras clave activadas como un enlace de sitio o un paquete de imágenes.

El motivo por el que debemos filtrar los enlaces de sitio es que no influyen en la clasificación de la URL principal. Esto se debe a que técnicamente solo la página principal se clasifica para la palabra clave, no las URL del enlace de sitio que se muestran debajo de ella.

Filtrar los enlaces de sitio garantizará que estemos optimizando la página correcta.

Aquí se explica cómo hacerlo en Ahrefs.

Por último, recomiendo filtrar las palabras clave de marca. Puede hacerlo filtrando la salida CSV directamente o prefiltrando en la herramienta de palabras clave de su elección antes de la exportación.

Finalmente, al exportar asegúrese de elegir Exportación completa y el UTF-8 formato como se muestra a continuación.

De forma predeterminada, el script funciona con exportaciones de palabras clave de Ahrefs (v1/v2) y Semrush. Puede funcionar con cualquier archivo CSV de palabra clave siempre que estén presentes los nombres de columna que espera el script.

Procesando

Las siguientes instrucciones se refieren a la ejecución de una hoja de Google Colaboratory para ejecutar el código.

Ahora existe una opción más sencilla para aquellos que lo prefieren en forma de aplicación optimizada. Simplemente siga las instrucciones proporcionadas para cargar su archivo de rastreo y palabras clave.

Ahora que tenemos nuestros archivos exportados, todo lo que queda por hacer es subirlos a la Hoja de Google Colaboratory para procesar.

Seleccionar Tiempo de ejecución > Ejecutar todo desde la navegación superior para ejecutar todas las celdas de la hoja.

El script le pedirá que cargue primero la palabra clave CSV de Ahrefs o Semrush y luego el archivo de rastreo.

¡Eso es todo! El script descargará automáticamente un archivo CSV procesable que puede usar para optimizar su sitio.

Una vez que esté familiarizado con todo el proceso, usar el script es realmente sencillo.

Desglose del código y explicación

Si está aprendiendo Python para SEO y está interesado en lo que hace el código para producir el informe, ¡quédese para ver el tutorial del código!

Instalar las bibliotecas

Instalemos pandas para que la bola ruede.

!pip instalar pandas

Importar los módulos

A continuación, necesitamos importar los módulos requeridos.

importar pandas como pd desde pandas importar DataFrame, Series desde escribir importar Union desde google.colab importar archivos

Establecer las variables

Ahora es el momento de establecer las variables.

El script considera cualquier palabra clave entre las posiciones cuatro y 20 como dentro de la distancia de ataque.

Cambiar las variables aquí le permitirá definir su propio rango si lo desea. Vale la pena experimentar con la configuración para obtener el mejor resultado posible para sus necesidades.

# establecer todas las variables aquí min_volume = 10 # establecer el volumen de búsqueda mínimo min_position = 4 # establecer la posición mínima / predeterminado = 4 max_position = 20 # establecer la posición máxima / predeterminado = 20 drop_all_true = True # Si todas las comprobaciones (h1/title/ copy) son verdaderos, elimine la recomendación (Nada que hacer) pagination_filters = “filterby|page|p=” # patrones de filtro utilizados para detectar y descartar páginas paginadas

Cargue el archivo CSV de exportación de palabras clave

El siguiente paso es leer la lista de palabras clave del archivo CSV.

Está configurado para aceptar un informe de Ahrefs (V1 y V2), así como una exportación de Semrush.

Este código lee el archivo CSV en un Pandas DataFrame.

subir = archivos.subir() subir = lista(subir.claves())[0]
df_keywords = pd.read_csv( (subir), error_bad_lines=False, low_memory=False, encoding=”utf8″, dtype={ “URL”: “str”, “Keyword”: “str”, “Volume”: “str” , “Posición”: int, “URL actual”: “str”, “Volumen de búsqueda”: int, }, ) print(“¡Archivo CSV de palabra clave cargado correctamente!”)

Si todo salió según lo planeado, verá una vista previa del marco de datos creado a partir de la exportación de CSV de palabra clave.

🔥 Recomendado:  587 ideas divertidas y sostenibles para nombres de granjas de pollos que te encantarán

Cargue el archivo CSV de exportación de rastreo

Una vez que se han importado las palabras clave, es hora de cargar el archivo de rastreo.

Esta pieza de código bastante simple se lee en el rastreo con alguna opción de manejo de errores y crea un Pandas DataFrame llamado df_rastreo.

subir = archivos.subir() subir = lista(subir.claves())[0]
df_crawl = pd.read_csv((subir), error_bad_lines=False, low_memory=False, encoding=”utf8″, dtype=”str”, )
print(“¡Frame de datos de rastreo subido con éxito!”)

Una vez que el archivo CSV haya terminado de cargarse, verá una vista previa del marco de datos.

Limpie y estandarice los datos de palabras clave

El siguiente paso es cambiar el nombre de las columnas para garantizar la estandarización entre los tipos más comunes de exportaciones de archivos.

Esencialmente, estamos poniendo la palabra clave DataFrame en buen estado y filtrando usando cortes definidos por las variables.

df_keywords.rename( column={ “Posición actual”: “Posición”, “URL actual”: “URL”, “Volumen de búsqueda”: “Volumen”, }, inplace=True, ) # mantener solo las siguientes columnas de la palabra clave dataframe cols = “URL”, “Palabra clave”, “Volumen”, “Posición” df_keywords = df_keywords.reindex(columns=cols) intente: # limpiar los datos. (v1 de la exportación de palabras clave ahrefs combina cadenas e enteros en la columna de volumen) df_keywords[“Volume”] = df_palabras clave[“Volume”].str.replace(“0-10”, “0”) excepto AttributeError: pasar # limpiar los datos de la palabra clave df_keywords = df_keywords[df_keywords[“URL”].notna()]# elimina los valores faltantes df_keywords = df_keywords[df_keywords[“Volume”].notna()]# elimina los valores faltantes df_keywords = df_keywords.astype({“Volume”: int}) # cambia el tipo de datos a int df_keywords = df_keywords.sort_values(by=”Volume”, ascendente=False) # ordena por mayor vol para mantener la mejor oportunidad # crear un nuevo marco de datos para fusionar el volumen de búsqueda más adelante df_keyword_vol = df_keywords[[“Keyword”, “Volume”]]# soltar filas si el volumen de búsqueda mínimo no coincide con los criterios especificados df_keywords.loc[df_keywords[“Volume”] < min_volume, "Volume_Too_Low"]= "soltar" df_keywords = df_keywords[~df_keywords["Volume_Too_Low"].es en(["drop"])]# soltar filas si la posición de búsqueda mínima no coincide con los criterios especificados df_keywords.loc[df_keywords["Position"] <= min_position, "Position_Too_High"]= "soltar" df_keywords = df_keywords[~df_keywords["Position_Too_High"].es en(["drop"])]# soltar filas si la posición de búsqueda máxima no coincide con los criterios especificados df_keywords.loc[df_keywords["Position"] >= posición_máxima, “Posición_demasiado_baja”]= “soltar”
df_palabras clave = df_palabras clave[~df_keywords[“Position_Too_Low”].es en([“drop”])]

Limpie y estandarice los datos de rastreo

A continuación, debemos limpiar y estandarizar los datos de rastreo.

Esencialmente, usamos la reindexación para mantener solo las columnas “Dirección”, “Indexabilidad”, “Título de la página”, “H1-1” y “Copia 1”, descartando el resto.

Usamos la práctica columna “Indexabilidad” para mantener solo las filas que son indexables. Esto eliminará las URL canonicalizadas, los redireccionamientos, etc. Recomiendo habilitar esta opción en el rastreo.

Por último, estandarizamos los nombres de las columnas para que sea un poco más agradable trabajar con ellos.

# mantenga solo las siguientes columnas del marco de datos de rastreo cols = “Dirección”, “Indexabilidad”, “Título 1”, “H1-1”, “Copia 1” df_crawl = df_crawl.reindex(columns=cols) # eliminar no indexable filas df_crawl = df_crawl[~df_crawl[“Indexability”].es en([“Non-Indexable”])]# estandarizar los nombres de las columnas df_crawl.rename(columns={“Dirección”: “URL”, “Título 1”: “Título”, “H1-1”: “H1”, “Copia 1”: “Copia”} , en el lugar=Verdadero)
df_crawl.head()

Agrupar las palabras clave

A medida que nos acercamos al resultado final, es necesario agrupar nuestras palabras clave para calcular la oportunidad total de cada página.

Aquí, estamos calculando cuántas palabras clave están dentro de la distancia de ataque para cada página, junto con el volumen de búsqueda combinado.

# agrupa las URL (elimina las duplicadas y combina las estadísticas) # haz una copia del marco de datos de las palabras clave para agrupar; esto garantiza que las estadísticas se puedan fusionar más tarde desde el OG df df_keywords_group = df_keywords.copy() df_keywords_group[“KWs in Striking Dist.”] = 1 # utilizado para contar el número de palabras clave en distancia de impacto df_keywords_group = ( df_keywords_group.groupby(“URL”) .agg({“Volume”: “sum”, “KWs in Striking Dist.”: “count”}) . reset_index() )
df_keywords_group.head()

Una vez completado, verá una vista previa del DataFrame.

Mostrar palabras clave en filas adyacentes

Utilizamos los datos agrupados como base para el resultado final. Usamos Pandas.unstack para remodelar el marco de datos para mostrar las palabras clave en el estilo de una exportación de GrepWords.

# crea un nuevo df, combina los datos fusionados con los datos originales. mostrar en filas adyacentes ala grepwords df_merged_all_kws = df_keywords_group.merge( df_keywords.groupby(“URL”)[“Keyword”]
.apply(lambda x: x.reset_index(drop=True)) .unstack() .reset_index() ) # ordenar por mayor oportunidad df_merged_all_kws = df_merged_all_kws.sort_values( by=”KWs in Striking Dist.”, ascendente=False ) # reindexe las columnas para mantener solo las cinco palabras clave principales cols = “URL”, “Volume”, “KWs in Striking Dist.”, 0, 1, 2, 3, 4 df_merged_all_kws = df_merged_all_kws.reindex(columns=cols) # create union y cambie el nombre de las columnas df_striking: Unión[Series, DataFrame, None] = df_merged_all_kws.rename( column={ “Volumen”: “Volumen de dist. llamativo”, 0: “KW1”, 1: “KW2”, 2: “KW3”, 3: “KW4”, 4: “KW5″, } ) # fusiona la distancia de impacto df con crawl df para fusionar el título, h1 y la descripción de la categoría df_striking = pd.merge(df_striking, df_crawl, on=”URL”, how=”inner”)

Establecer el orden final de las columnas e insertar columnas de marcador de posición

Por último, establecemos el orden final de las columnas y fusionamos los datos de palabras clave originales.

¡Hay muchas columnas para ordenar y crear!

# establece el orden final de las columnas y fusiona los datos de palabras clave en cols = [
“URL”,
“Title”,
“H1”,
“Copy”,
“Striking Dist. Vol”,
“KWs in Striking Dist.”,
“KW1”,
“KW1 Vol”,
“KW1 in Title”,
“KW1 in H1”,
“KW1 in Copy”,
“KW2”,
“KW2 Vol”,
“KW2 in Title”,
“KW2 in H1”,
“KW2 in Copy”,
“KW3”,
“KW3 Vol”,
“KW3 in Title”,
“KW3 in H1”,
“KW3 in Copy”,
“KW4”,
“KW4 Vol”,
“KW4 in Title”,
“KW4 in H1”,
“KW4 in Copy”,
“KW5”,
“KW5 Vol”,
“KW5 in Title”,
“KW5 in H1”,
“KW5 in Copy”,
]

# vuelve a indexar las columnas para colocarlas en un orden lógico + inserta nuevas columnas en blanco para verificaciones de kw. df_striking = df_striking.reindex(columnas=columnas)

Fusionar los datos de palabras clave para cada columna

Este código fusiona los datos del volumen de palabras clave en el DataFrame. Es más o menos el equivalente de una función BUSCARV de Excel.

# combinar datos de palabras clave para cada columna de palabras clave (KW1 – KW5) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW1″, right_on=”Palabra clave”, how=”left”) df_striking[‘KW1 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]axis=1, inplace=True) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW2″, right_on=”Palabra clave”, how=”left”) df_striking[‘KW2 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]axis=1, inplace=True) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW3″, right_on=”Palabra clave”, how=”left”) df_striking[‘KW3 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]axis=1, inplace=True) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW4″, right_on=”Palabra clave”, how=”left”) df_striking[‘KW4 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]axis=1, inplace=True) df_striking = pd.merge(df_striking, df_keyword_vol, left_on=”KW5″, right_on=”Palabra clave”, how=”left”) df_striking[‘KW5 Vol’] = df_striking[‘Volume’]
df_striking.drop([‘Keyword’, ‘Volume’]eje=1, en el lugar=Verdadero)

🔥 Recomendado:  Use una matriz de palabras clave para elevar su investigación de palabras clave

Limpie los datos un poco más

Los datos requieren una limpieza adicional para completar los valores vacíos (NaN) como cadenas vacías. Esto mejora la legibilidad del resultado final al crear celdas en blanco, en lugar de celdas con valores de cadena NaN.

A continuación, convertimos las columnas a minúsculas para que coincidan al verificar si una palabra clave de destino aparece en una columna específica.

# reemplazar los valores nan con cadenas vacías df_striking = df_striking.fillna(“”) # colocar el título, h1 y la descripción de la categoría en minúsculas para que los kws puedan coincidir con ellos df_striking[“Title”] = df_striking[“Title”].str.inferior() df_striking[“H1”] = df_striking[“H1”].str.inferior() df_striking[“Copy”] = df_striking[“Copy”].str.inferior()

Compruebe si la palabra clave aparece en el título/H1/Copia y devuelva verdadero o falso

Este código verifica si la palabra clave de destino se encuentra en el título de la página/H1 o copia.

Marcará verdadero o falso dependiendo de si se encontró una palabra clave dentro de los elementos en la página.

df_striking[“KW1 in Title”] = df_striking.apply(fila lambda: fila[“KW1”] en fila[“Title”]eje=1) df_striking[“KW1 in H1”] = df_striking.apply(fila lambda: fila[“KW1”] en fila[“H1”]eje=1) df_striking[“KW1 in Copy”] = df_striking.apply(fila lambda: fila[“KW1”] en fila[“Copy”]eje=1) df_striking[“KW2 in Title”] = df_striking.apply(fila lambda: fila[“KW2”] en fila[“Title”]eje=1) df_striking[“KW2 in H1”] = df_striking.apply(fila lambda: fila[“KW2”] en fila[“H1”]eje=1) df_striking[“KW2 in Copy”] = df_striking.apply(fila lambda: fila[“KW2”] en fila[“Copy”]eje=1) df_striking[“KW3 in Title”] = df_striking.apply(fila lambda: fila[“KW3”] en fila[“Title”]eje=1) df_striking[“KW3 in H1”] = df_striking.apply(fila lambda: fila[“KW3”] en fila[“H1”]eje=1) df_striking[“KW3 in Copy”] = df_striking.apply(fila lambda: fila[“KW3”] en fila[“Copy”]eje=1) df_striking[“KW4 in Title”] = df_striking.apply(fila lambda: fila[“KW4”] en fila[“Title”]eje=1) df_striking[“KW4 in H1”] = df_striking.apply(fila lambda: fila[“KW4”] en fila[“H1”]eje=1) df_striking[“KW4 in Copy”] = df_striking.apply(fila lambda: fila[“KW4”] en fila[“Copy”]eje=1) df_striking[“KW5 in Title”] = df_striking.apply(fila lambda: fila[“KW5”] en fila[“Title”]eje=1) df_striking[“KW5 in H1”] = df_striking.apply(fila lambda: fila[“KW5”] en fila[“H1”]eje=1) df_striking[“KW5 in Copy”] = df_striking.apply(fila lambda: fila[“KW5”] en fila[“Copy”]eje=1)

Eliminar valores verdadero/falso si no hay palabra clave

Esto eliminará los valores verdadero/falso cuando no haya una palabra clave adyacente.

# eliminar valores verdaderos/falsos si no hay palabra clave df_striking.loc[df_striking[“KW1”] == “”, [“KW1 in Title”, “KW1 in H1”, “KW1 in Copy”]]= “” df_striking.loc[df_striking[“KW2”] == “”, [“KW2 in Title”, “KW2 in H1”, “KW2 in Copy”]]= “” df_striking.loc[df_striking[“KW3”] == “”, [“KW3 in Title”, “KW3 in H1”, “KW3 in Copy”]]= “” df_striking.loc[df_striking[“KW4”] == “”, [“KW4 in Title”, “KW4 in H1”, “KW4 in Copy”]]= “” df_striking.loc[df_striking[“KW5”] == “”, [“KW5 in Title”, “KW5 in H1”, “KW5 in Copy”]]= “” df_striking.head()

Soltar filas si todos los valores == verdadero

Esta opción configurable es realmente útil para reducir la cantidad de tiempo de control de calidad requerido para el resultado final al eliminar la palabra clave oportunidad del resultado final si se encuentra en las tres columnas.

def true_dropper(col1, col2, col3): drop = df_striking.drop( df_striking[
(df_striking[col1] == Verdadero) & (df_striking[col2] == Verdadero) & (df_striking[col3] == True) ].index ) return drop if drop_all_true == True: df_striking = true_dropper(“KW1 en Título”, “KW1 en H1”, “KW1 en Copia”) df_striking = true_dropper(“KW2 en Título”, “KW2 en H1”, “KW2 en copia”) df_striking = true_dropper(“KW3 en título”, “KW3 en H1”, “KW3 en copia”) df_striking = true_dropper(“KW4 en título”, “KW4 en H1”, “KW4 en Copia”) df_striking = true_dropper(“KW5 en Título”, “KW5 en H1”, “KW5 en Copia”)

Descargar el archivo CSV

El último paso es descargar el archivo CSV e iniciar el proceso de optimización.

df_striking.to_csv(‘Palabras clave en Striking Distance.csv’, index=False) files.download(“Palabras clave en Striking Distance.csv”)

Conclusión

Si está buscando ganancias rápidas para cualquier sitio web, el informe de distancia de impacto es una forma realmente fácil de encontrarlas.

No se deje engañar por el número de pasos. No es tan complejo como parece. Es tan simple como cargar un rastreo y una exportación de palabras clave a la hoja de Google Colab suministrada o usar la aplicación Streamlit.

¡Los resultados definitivamente valen la pena!

Más recursos: