[Top][All Lists]
[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: [GNU-traductores] Se busca gurú :)
From: |
Carlos Butron |
Subject: |
Re: [GNU-traductores] Se busca gurú :) |
Date: |
Fri, 01 Jun 2012 16:11:25 +0200 |
User-agent: |
Mozilla/5.0 (X11; Linux x86_64; rv:12.0) Gecko/20120430 Thunderbird/12.0.1 |
El 01/06/12 08:35, Dora Scilipoti escribió:
Carlos Butron wrote:
Si me explicáis con más detalle como diferenciar las páginas que están
en inglés y no tienen traducción, es decir necesito saber como haríamos
la búsqueda a mano para poderlo entender y programar.
A mano lo que se me ocurre es:
En cada una de las páginas las páginas publicadas figura la lista de
las traducciones disponibles para esa página. Si la página es nueva,
la lista se encuentra inmediatamente debajo de la barra de navegación
roja. En las viejas, se encuentra al final, en el pie de página.
Entonces una manera sería ir visitando cada una de las páginas del sitio
e ir anotando cuáles son aquellas en las que el español no figura en la
lista de las traducciones.
Otra manera es entrar en cada uno de los subdirectorios y buscar
cuáles son las páginas que no tienen el sufijo .es.
Hola,
Lo voy a intentar buscando las páginas que no tengan el sufijo .es , lo
que voy a hacer es lo siguiente:
cvs -z3 -d:ext:address@hidden:/web/www co www
Primero actualizo en local y después busco las páginas originales sin
extensiones y las guardo en un listado, después busco las páginas que
tienen el sufijo .es. y las guardo en otro listado y por último
compararé los dos listados para ver que cadenas sin el .html ni el
.es.html no coinciden y las imprimiré por pantalla o en un txt. Eso sí,
tengo los dos últimos exámenes el 6 y 7 y son bastante duros, hasta el 7
al mediodía no me puedo poner a hacerlo.
find www ! -name "*.*.html" | grep -i html (sacamos todas las webs
originales)
find www -name "*.*.html" | grep -i es.html (sacamos todas las webs
traducidas)
En mi caso www por que estoy en local.
Como digo se puede guardar cada resultado en una lista o bien poniendo
al final "> lista_original" o "> lista_traducidas" así el resultado no
se mostraría por pantalla sin en esos archivos o guardando cada
resultado en un array y comparando luego las cadenas del array sin la
extensión .html ni la .es.html y buscando las diferentes.
Por favor, si podéis comprobar que ambos comandos devuelven la listas
que digo o si hay algo mal devuelto o que falte para poder modificarlo,
lo agradecería.
Si alguien sabe programarlo o bien con comandos shell script o bien en
algún lenguaje estupendo, sino el día 7 lo programo en lenguaje c, que
es el que yo domino.
Muchas gracias.
Un saludo.
address@hidden
address@hidden
Otro método menos punitivo podría ser con grep, pero esto tendría
que ver cómo lo haría.
Una cosa que quizá podría ser útil para hacer el script es el archivo
/server/gnun/gnun.mk. Ahí están todas las páginas del sitio que se
han puesto bajo el control de GNUN.
Igual esto no es para nada urgente.