adaptable

lunes, 7 de mayo de 2018

El relé


Se caracterizan por conectar y realizar funciones principalmente de mando con un coste energético relativamente bajo, siendo utilizados principalmente para el procesamiento de señales. Aunque existen numerosos tipos y diferentes construcciones, el principio de funcionamiento para todos ellos es similar

Un relé está formado por una bobina con un núcleo de hierro y uno o más contactos, los cuales conmutarán su posición ante la aparición de un campo magnético creado por la propia bobina.
En posición de reposo (sin alimentación eléctrica a la bobina), un resorte empuja una lámina de material conductor basculante, la cual se encuentra separada del núcleo. En estos momentos existe una conexión entre las bornas “común” y “NC” (normalmente cerrado).

Cuando se active el pulsador, el circuito quedará cerrado, existiendo una alimentación eléctrica a la bobina, la cual crea un campo magnético capaz de atraer a la lámina basculante venciendo la fuerza realizada por el resorte en oposición

Es entonces cuando se produce la conmutación de los contactos, existiendo comunicación entre las bornas “común” y “NA” (normalmente abierto). Si en un determinado momento se produce el corte de alimentación a la bobina, esta dejará de producir flujo electromagnético y el relé retornará a su posición inicial, debido a la fuerza de recuperación que realizará el resorte. Es precisamente por este efecto por el que los relés de este tipo son considerados monoestables (solo tienen una posición estable), debiéndose tener este aspecto en cuenta para la realización de los circuitos.


APLICACIONES DE UN RELÉ

  Inversión de contactos: de esta manera eliminamos una limitación muy frecuente de algunos sensores que se utilizan como dispositivo de entrada, ya que con la utilización del relé no importa si el contacto del sensor es abierto o cerrado, pues lo transformamos en el que más nos interese.
  Multiplicación de contactos: el relé permite multiplicar los contactos de salida de un sensor con la simple conexión de este a una bobina de un relé, en el cual tendremos varios de estos contactos. Al activar el sensor, excita la bobina y mueve los contactos, que utilizaremos a nuestro antojo.
  Amplificación de potencia: en determinadas ocasiones, es posible que los sensores colocados en la instalación no permitan el paso de la intensidad deseada. Una rápida solución la encontramos en la utilización de relés, en lo que podría denominarse un mando indirecto.
  Cambio de tensión: los relés permiten que la tensión de entrada a la bobina, por ejemplo, sea en continua, y la aplicada en los contactos en alterna y viceversa. De esta manera podemos utilizar señales en continua para mover aparatos en alterna y viceversa.
   memoria: en los circuitos automáticos, todas las discriminaciones (acciones desarrolladas para eliminar la doble señal eléctrica) se realizan por medio de relés, denominados memorias. Esta aplicación se llama realimentación.

* TIPOS DE RELÉS

RELÉS ENCHUFABLES

constan de dos partes:
 Cabeza del relé: es el elemento que contiene todos los mecanismos  (contactos, bobina...).
 Zócalo o base enchufable: contiene una serie de clavijas en donde encajan las propias de la cabeza; estas clavijas están conectadas a unos bornes para facilitar la conexión a los conductores. Si por cualquier motivo se deteriora el mecanismo, se puede sustituir, puesto que encajaría perfectamente en esta base.


- PARA CIRCUITO IMPRESO


Estos elementos se usan en electrónica y a diferencia de los anteriores, carecen
de base, de modo que únicamente llevan unas patillas que se sueldan al circuito.




- DE ENCLAVAMIENTO  se caracteriza por no ser monoestable  ya que es biestable— y por actuar por impulso eléctrico es decir, pulsas el pulsador y se conecta, lo vuelves a pulsar y se desconecta




- DE CONTINUA: pensados para corrientes continuas, por lo que la bobina está pensada para las características de este tipo de corriente






miércoles, 4 de abril de 2018

Starlink, la red de 4.425 satélites de banda ancha de Elon Musk, es aprobada y deberá estar operativa antes de 2024




La Comisión Federal de Comunicaciones de Estados Unidos (FCC) ha dado luz verde a Elon Musk para el despliegue de su ambiciosa y enorme red global de internet satelital, conocida como Starlink. Se trata de un proyecto de SpaceX con el que buscan poner en órbita 4.425 satélites que proporcionarían internet de banda ancha a todo el mundo.
Después de tres años de planificación, una jugosa inversión por parte de Google y ciertas dudas, Elon Musk presentó en noviembre de 2016 una carta a la FCC donde solicitaba autorización para echar a andar este gran proyecto que sería único en su tipo. Pues dicha autorización finalmente llegó, y Musk debe empezar a trabajar cuanto antes, ya que la FCC le puso fecha límite.

Después de que la FCC revisara y aprobara la solicitud de Musk, la comisión le ha otorgado una licencia de constelación a SpaceX con la que se le autoriza poner en órbita 4.425 satélites, con lo que se proporcionará internet a velocidad gigabit con una latencia máxima de 25 ms.
La idea de Musk es en realidad tener 12.000 satélites, pero debido a las restricciones por parte de la FCC, ya que no todos estarían en la misma órbita y frecuencia, sólo pudo solicitar permiso para 4.425. Es decir, éstos más de cuatro mil satélites estarán conectados en red, con la misma frecuencia y a la misma altitud.


La FCC también le exige a Musk que al menos el 50% de la red debe estar en la órbita asignada y operando antes del 29 de marzo de 2024. Si pasa esta fecha y Musk no cumple, la licencia le será retirada y deberá solicitar un nuevo permiso. Es decir, tiene seis años para ponerse las pilas.
Como sabemos, hace unos días SpaceX envió los primeros dos satélites de la red Starlink, los cuales están actualmente en órbita con el objetivo de realizar pruebas. La finalidad de esta red de banda ancha sería, según Musk, proporcionar conexión a internet de banda ancha a todo el mundo y a precios asequibles, donde lo importante es que se busca conectar aquellas zonas rurales y de difícil acceso, donde hoy día es extremadamente costoso colocar infraestructura.
En esta autorización, la FCC también solicitó a SpaceX un plan detallado de mitigación de escombros espaciales, por lo que empresa de Musk deberá entregar en los próximos años, los detalles y diseño de cada satélite y qué pasará con ellos una vez que terminen su vida operativa. El objetivo de esto es evitar más basura espacial.


Todo puede sonar muy bien, pero la realidad es que sigue habiendo dudas y protestas por parte de otros operadores de internet satelital. Por ejemplo, OneWeb externó su preocupación ante Starlink debido a la gran cantidad de satélites que piensan desplegar, ya que temen que esto podría ocasionar una saturación del espectro y sobre todo la órbita, ya que todos operarán en la misma zona.
Hasta el momento no ha habido reacciones por parte de SpaceX o Elon Musk, así que tendremos que estar pendientes para dar seguimiento a este proyecto y cuál sería el plan para echar a andar Starlink.
En Genbeta | Así funcionará la red de internet mundial de más de 4.000 satélites que Elon Musk comienza a construir este sábado
En Xataka | Elon Musk iniciará las pruebas de su gran red global de internet con dos satélites que se pondrán en órbita este 17 de febrero



miércoles, 28 de febrero de 2018

Mobile World Congress 2018 tendencias





Las redes 5G ya son una realidad

Tras años en pruebas de laboratorio ya se aprecian casos concretos (y reales) para el despliegue de esta nueva tecnología, cuya subasta comenzará en breve en España. Las operadoras desvelan sus planes para el 5G, la red de comunicaciones que deberá soportar el inmenso tráfico de un mundo en el que todo habla con todo, muestran sus proyectos piloto o afirman, como en el caso de Telefónica, estar ya preparadas para lo que está por llegar. Los antiguos enemigos también se unen, como ha hecho Telefónica con Facebook y Google, para ofrecer servicios comunes y sacar ventaja del mundo hiperconectado que viene, en el que habrá lugar, y ganancias, para todos.


Así, podremos dirigirnos al asistente virtual Aura, tanto con comandos directos de voz como a través del Messenger de Facebook, del Cortana de Microsoft o de Google Assistant. El usuario, convertido en el centro del universo digital, será siempre el que elija... Por supuesto, también podremos elegir a través de qué dispositivos queremos comunicarnos con nuestro hogar o nuestros contactos, y desde dónde. A nuestra lavadora (es un decir) le dará igual si le estamos hablando desde el coche, desde el móvil, a través del televisor o de un altavoz inteligente. Y se pondrá en marcha cuando le digamos.

Parece que, por fin, ha llegado el momento de que se materialicen los cambios que llevan ya años anunciándose a bombo y platillo. Si hay algo que esta edición del MWC ha dejado claro es precisamente eso. Que se acabó la espera, que la nueva revolución tecnológica esta en marcha y que podemos empezar a disfrutar de ella desde ya. Para alguien no experto podría resultar complicado darse cuenta de cómo todas las piezas encajan, cómo los desarrollos en diferentes campos se van complementando unos a otros y , al hacerlo, van tejiendo una nueva realidad de la que muy pronto todos formaremos parte.

El retorno del rey móvil

Al mismo tiempo que las comunicaciones, las redes y la inteligencia artificial mejoran, los dispositivos que usaremos en este nuevo mundo hiperconectado hacen lo propio. Y un móvil deja de ser sólo un móvil para convertirse, es cierto, en un «mando universal» que controla todos nuestros dispositivos domésticos, pero también en una extensión de nuestros propios sentidos que nos ofrece información valiosa, y en tiempo real, sobre todo lo que nos rodea. Así lo ha entendido, por ejemplo, Samsung, que ha convertido la cámara de su nuevo Galaxy S9 en una herramienta capaz de llegar hasta donde los sentidos naturales no pueden. La firma surcoreana ha entrado por la puerta grande en su regreso a la feria para desvelar su dispositivo estrella.

Cámaras duales y pantallas sin bordes

He aquí algunos ejemplos. Si enfocamos la cámara al cielo, aparecerá la información del tiempo; si captamos con ella un alimento, nos dirá cuantas calorías estamos a punto de ingerir; si miramos a través de ella a un cartel escrito en lengua extraña, el texto aparecerá en nuestro idioma; si encuadramos un monumento, nos dirá cómo se llama y nos contará su historia; y si enfocamos un objeto cualquiera que nos gustaría tener, nos dirá su precio y donde encontrarlo.
Sony, por su parte, sorprende a propios y extraños con las extraordinarias capacidades fotográficas de su nuevo Xperia XZ2, mientras que Nokia sigue llamando a la nostalgia y ZTE luce su nuevo Axon 9 y, cómo no, también su reciente Axon M, un extraño móvil con dos pantallas. Lo que ha dejado claro la feria es que después de un primer año (2017) en el que han llegado los primeros móviles con pantalla casi sin bordes, este año no solo se consolida, sino que también toca a otros rangos de precios, como ha exhibido Alcatel.

Los coches traccionan hacia la tecnología

En cuanto a conectividad se refiere, también los coches van ganando terreno. Ahí está Seat, por ejemplo, que ha sido la primera firma capaz de integrar Shazam a su sistema de «infotaiment» de forma que si al escuchar una canción tocamos un botón en pantalla, sabremos el título, quien la canta y podremos agregarla a una lista. La marca trabaja también en un sistema de Inteligencia Artificial que nos permitirá comunicarnos con nuestro coche exactamente igual a cómo lo hacemos ya con otros dispositivos. Los fabricantes de automóviles cargan cada vez más de sistemas inteligentes y tecnología en sus modelos, mientras los desarrollos sobre el coche del futuro y autoconducido se van acelerando con firmas como Tesla o Google como punta de lanza de esta innovación que tiene por ahora más futuro que presente.

Inteligencia Artificial para todo

La inteligencia artificial extiende sus tentáculos a todas las áreas y empieza a llegar a los móviles. Para hacerlos, si cabe, más «listos». Los nuevos procesadores, muchos de ellos capaces de computar a base de redes neuronales, aportan ahora inteligencia extra a cada dispositivo. O mejor dicho, la capacidad para que cada dispositivo sea inteligente. La forma en que se aplique esa capacidad depende de lo que quiera desarrollar cada una de las marcas. Algunas, como hemos visto, optan por las capacidades fotográficas de sus terminales, otras apuestan por el rendimiento, o por fortalecer determinadas prestaciones. Es lo que se ha dado en llamar la «barra libre» de la inteligencia artificial.
Fuente: http://www.abc.es/tecnologia/redes/abci-tendencias-arroja-mobile-world-congress-201802280114_noticia.html#

RESISTENCIAS LDR



Sus siglas vienen de light dependent resistor, resistor dependiente de la luz, también llamado fotorresistencia. Se fabrican a base de sulfuro de cadmio. Este material, convenientemente tratado, contiene pocos o ningún electrón libre si se mantiene en completa oscuridad. En estas condiciones su resistencia es elevada. Si absorbe luz se libera cierto número de electrones y esto hace aumentar la conductividad del material. Al cesar la iluminación, los electrones son recapturados a sus posiciones originales. Se recomienda su no utilización por ser materiales altamente contaminantes. Tienen varios megaohmios de resistencia, pero esta baja a unos 100 ohmios al ser expuesta a la luz

Simbologia resistencia LDR

Aplicaciones de las resistencias LDR
Se emplean en iluminación, apagado y encendido de alumbrado (interruptores crepusculares) farolas y focos, en alarmas, en cámaras fotográficas, en medidores de luz. Las de la gama infrarroja en control de máquinas y procesos que contabilizan objetos. Y antiguamente en televisores monocromos o de blanco y negro lo utilizaban para compensar el brillo de la pantalla según estuviera la iluminación de la estancia. Hoy en dia se suele utilizar mas los diodos emisores de infrarrojos y los fototransistores que suelen tener mejor rendimiento en la mayoria de las aplicaciones..

. MÁQUINAS DE CORRIENTE CONTINUA


 La máquina de corriente continua es una de las más versátiles en la industria. Su fácil control de posición, par y velocidad la han convertido en una de las mejores selecciones en aplicaciones de control y automatización de procesos. Con el avance de la electrónica han caído en desuso, ya que los motores de corriente alterna del tipo asíncrono pueden ser controlados de igual forma a precios más asequibles para el consumidor de la industria. A pesar de esto, actualmente las máquinas de corriente continua siguen empleándose en aplicaciones de laminadoras, trenes o tranvías. Los motores y los generadores de corriente continua están constituidos esencialmente por los mismos componentes, diferenciándose en la forma de utilización; por eso en esta unidad los trataremos por igual. Si se hace girar al rotor de la máquina, se produce en el bobinado inducido una fuerza electromotriz capaz de transformarse en energía en el circuito de carga. En este caso la máquina funciona como generador, transformando la energía mecánica en eléctrica. En cambio, si se aplica una tensión continua al devanado inducido de la máquina a través del colector de delgas, el comportamiento de esta ahora es como motor, transformando la energía eléctrica en mecánica. En ambos casos el inducido está sometido a la acción del campo inductor principal. La importancia de este tipo de motores radica en su suavidad de movimientos y su precisión; en la actualidad esto se consigue también para motores de corriente alterna incorporando un variador de frecuencia que aproxima bastante el funcionamiento de estos al de los motores de corriente continua. 

 PARTES FUNDAMENTALES DE UNA MÁQUINA DE CORRIENTE CONTINUA

 Hay que distinguir dos tipos de bobinados en las máquinas de corriente continua;
-  bobinado inductor . El bobinado inductor se instala siempre en el estátor de la máquina, es decir, la parte fija. Este bobinado es el encargado de generar el campo magnético principal que circulará por la máquina. 
- bobinado inducido: El bobinado inducido se instala en el rotor de la máquina, es decir, en la parte móvil. En él se induce el flujo magnético provocado por el corte de las líneas de campo magnético al entrar en movimiento la máquina 

. ENTREHIERRO:
 El entrehierro es la parte de la máquina que separa el estátor del rotor, es decir, es el trozo de aire existente entre la parte fija de la máquina y la parte móvil. Este espacio es imprescindible para el funcionamiento de la máquina y para no provocar problemas mecánicos por roces entre rotor y estátor. Sin embargo, este espacio es un inconveniente para los campos magnéticos, puesto que se debilitan fuertemente cuando pasan de un medio como puede ser el circuito magnético de las chapas del estátor, a otro medio como es el aire. Por ello el entrehierro de una máquina debe reducirse al mínimo posible para evitar pérdidas en el circuito magnético. 

ESCOBILLAS
Las escobillas deben poner en cortocircuito todas las bobinas situadas en la zona neutra. Si la máquina tiene dos polos, tenemos también dos zonas neutras. En consecuencia, el número total de escobillas ha de ser igual al número de polos de la máquina. En cuanto a su posición, será coincidente con las líneas neutras de los polos. Las escobillas estarán sujetas mecánicamente con un soporte que, en su interior, alojará un muelle de forma que ejerza permanentemente una fuerza sobre la escobilla y el colector de delgas. De esta manera se asegura el contacto de forma permanente, incluso cuando el desgaste de las escobillas sea progresivo.

 ROTOR:
 Es la parte móvil de la máquina y en él se alojan las bobinas correspondientes al inducido. Suelen construirse de chapas magnéticas para evitar en la medida de lo posible las pérdidas de potencia por corrientes de Foucault. 


lunes, 5 de febrero de 2018

EFECTO JOULE



EFECTO JOULE Se entiende con este nombre el calentamiento experimentado por un conductor al ser atravesado por la corriente eléctrica. Este calentamiento se debe al roce de los electrones con los átomos a su paso por el conductor. 

Las unidades caloríficas usadas son: la caloría (cal) y la kilocaloría (kcal). 


  • Caloría. Es la cantidad de calor necesaria para elevar la temperatura de un gramo de agua un grado centígrado. 
  • Kilocaloría. Es la cantidad de calor necesaria para elevar la temperatura de un kilogramo de agua un grado centígrado. 1 kcal = 1000 cal 20 


Existe una equivalencia entre la unidad de energía eléctrica (Julio) y la unidad calorífica (caloría): 1 Julio = 0,24 calorías. 

La energía calorífica y la energía eléctrica vienen relacionadas por la fórmula siguiente, conocida como ley de Joule: 

Q = 0,24 · E (en calorías) Q = Cantidad de calor (cal) E = Energía eléctrica (W·s) 0,24 = Coeficiente de equivalencia 

El efecto Joule  es algo muy deseado y esencial para muchos productos actuales. Productos como las estufas, los calefactores, los termos, los secadores o incluso las vitrocerámicas. Y es que este efecto permite convertir la energía eléctrica en calor, algo que ha sido muy explotado por ingenieros durante el último siglo para la creación de un sinfín de productos.                                                                                 En el caso de los secadores, por ejemplo, encontramos una serie de resistencias que se calientan con el paso de la corriente eléctrica, calentando así el aire que expulsa al exterior. El juego está en tratar de obtener la mayor eficiencia energética (con la menor cantidad de electricidad posible, calentar el aire a una misma temperatura).
En otros ámbitos también es algo no deseado pues impide la obtención de la máxima cantidad de energía de una corriente eléctrica y aporta calor en situaciones en las que no lo deseamos por ejemplo en una fuente de alimentación  de un ordenador o cualquier otro dispositivo en el que el calor es algo que debemos controlar.

Tipos y niveles de mantenimiento industrial




En primer lugar definimos mantenimiento en el ámbito de la empresa o la industria como el conjunto de acciones técnicas o administrativas necesarias para controlar, restituir y mejorar los activos físicos de la empresa para que desarrollen activamente su función.

Dentro del mantenimiento distinguimos dos tipos principales.

  • Mantenimiento correctivo (MC)
    • Es el manteminiento que se realiza con un equipo cuando ya se ha producido la avería, su fin es restituir el funcionamiento normal de la máquina.
    • Dentro del mantenimiento correctivo tenemos el correctivo paliativo (reparación provisional para salir del paso  y el curativo en el que la preparación es definitivo
  • Mantenimiento preventivo (MP)
    • Es el que trata de evitar averías o ´perdidas de rendimiento del equipo, puede ser sistemático, en el que actúa en intervalos de tiempos prefijados, o por condición que es aquel basado en el conocimiento contínuo o periódico de un componente por medición que nos conduce a la predicción de la avería, más conocido por mantenimiento predictivo.
  • Mantenimiento de mejoras (RE)
    • Se ocupa de estudiar posibles reformas de equipos con la intención de eliminar los puntos negros de la instalación que son los puntos que pueden llegar a producir pérdidas productivas muy continuadas.

NIVELES DE MANTENIMIENTO
  • Nivel 1: Operaciones fáciles en las que no es necesario el desmontaje de la máquina, normalmente definidas por el fabricante, son operaciones relacionadas con el mantenimiento preventivo generalmente realizadas por los propios operarios.
  • Nivel 2: Sustitución de componentes estándar de los equipos, no requieren grandes operaciones de desmontaje, puede estar relacionado con el mantenimiento preventivo o correctivo.
  • Nivel 3: Relacionado con operaciones de mantenimiento correctivo, se realizan operaciones de desmontaje de la máquina y con asiduidad restitución de piezas del equipo.
  • Nivel 4: Corresponde a grandes operaciones de carácter preventivo o correctivo. Suelen ser ejecutadas por personal interno de mantenimiento.
  • Nivel 5: Estas operaciones suele realizarlas personal muy especializado con amplia experiencia en este tipo de servicio.



jueves, 1 de febrero de 2018

El nuevo GPS (Sistema de posicionamiento global) en el que trabaja EEUU.



Nacido hace 30 años para uso militar el GPS se hace mayor, EEUU ya trabaja en actualizarlo con tres nuevas tecnologías que prometen por renovar por completo este sistema.
Desde que entró en funcionamiento, hace apenas 30 años, y sobre todo desde que se abrió al uso civil pleno, el GPS (Global Positioning System) se ha convertido en una herramienta económica de primer orden. Según un estudio oficial de 2011, en aquel año sólo en EEUU más de 3,3 millones de empleos y 96.000 millones de dólares anuales de ingresos directos se podían atribuir al efecto de este sistema de posicionamiento y navegación, y desde entonces el uso no ha parado de crecer. El último ejemplo: no hay más que ver el éxito del juego Pokémon Go, que no existiría sin GPS.

Diseñado para el ámbito militar, donde se ha convertido en imprescindible en múltiples funciones, el GPS ha creado escuela y estimulado la aparición y extensión de sistemas análogos como el ruso GLONASS, el europeo Galileo, el chino BeiDou-2tf y el indio IRNSS. Pero los años se notan, y la tecnología se está quedando obsoleta. Hace falta un sustituto. Y el gobierno de EEUU ya trabaja en ello.


Como sabe cualquiera que haya usado el móvil (o cualquier otro navegador) para llegar a un sitio, el GPS puede ser un amigo caprichoso. El punto que nos representa puede aparecer en mitad de los edificios a un lado de la carretera que transitamos, o saltar bruscamente de un sitio a otro sin previo aviso modificando la ruta que estábamos siguiendo cuando ya es demasiado tarde. Dentro de los edificios habitualmente no funciona, e incluso en ciudades con bloques altos (cañones urbanos) o en valles profundos, simplemente nos deja tirados cuando más lo necesitamos. Y si esto es un problema en el mundo civil, imagine en el militar. Que, al fin y al cabo, fue el que desarrolló este sistema de localización y navegación, para sus propios fines: guiar vehículos y munición.

Para una unidad militar perderse puede ser mucho más que una molestia. Pero puede ser incluso peor: el GPS ya está integrado íntimamente en el modo mismo de hacer la guerra de las fuerzas armadas estadounidenses, como demuestra una somera comparación entre la Primera y la Segunda Guerra de Irak. En 1991 la inmensa mayoría de las bombas lanzadas contra las tropas de Sadam fueron de la variedad ‘tonta’, aunque el puñado de armas ‘inteligentes’ utilizadas coparan las imágenes de televisión y los comentarios. Sin embargo en 2003 la mayoría de las armas usaban sistemas de guiado, muchos de ellos basados en las señales de la constelación GPS, para obtener niveles de precisión en los ataques nunca antes imaginados. El mundo, y sobre todo los posibles adversarios futuros de EEUU, tomaron nota, y comenzaron a trabajar en sistemas para inutilizar o degradar esa ventaja. Y también para copiarla.

24 satélites a 20.200 kilómetros

El sistema GPS consiste en unas decenas de satélites (24, con algunos de reserva) que orbitan el planeta a 20.200 kilómetros de distancia dando una vuelta cada casi 12 horas; sus planos orbitales están inclinados 55 grados respecto al Ecuador. Esto asegura una cobertura global, aunque el número de satélites visible desde un punto concreto del planeta varía con el tiempo.
Cada satélite lleva a bordo un reloj atómico ultrapreciso, y emite una señal portadora identificativa y cada 30 segundos un mensaje de apenas 1.500 bites que contiene la hora exacta y la posición del satélite en ese momento. El receptor de GPS identifica el satélite y determina cuánto tiempo ha tardado en llegar la señal hasta su posición: integrando las medidas de 4 satélites diferentes se puede calcular dónde está el receptor sobre la superficie terrestre (longitud, latitud y altitud) con una precisión de hasta 15 metros.


En realidad los satélites emiten dos señales diferentes, una de uso civil menos precisa (L1) y otra de uso militar que tiene mayor precisión (L2). Ambas van encriptadas y los mensajes llevan códigos de identificación para prevenir errores. Los receptores son relativamente simples y económicos, y si se mantienen en operación de modo continuo pueden refinar la posición calculada y reducir el error de posición. Habitualmente los receptores civiles incluyen mapas sobre los que se proyecta la posición calculada; los receptores militares pueden ser utilizados como mapas o bien para guiar la caída de proyectiles, como las bombas de aviación de la familia JDAM.

El problema es que las señales del GPS pueden ser interferidas, haciendo imposible que el receptor las escuche, o bien reemplazadas ('spoofing'), sustituyéndolas por otras falsas. Además los elementos del sistema (satélites, estaciones de control de tierra y receptores) pueden ser sometidos a ataques de tipo cibernético. Y no se trata de problemas imaginarios: potenciales enemigos de EEUU cuentan con equipos diseñados específicamente para evitar el uso del GPS en una zona o para engañar a sus usuarios. Esos equipos (como el ruso  R-330ZH Zhitel) funcionan, y están en el mercado internacional de armas al alcance de muchos países.


Así, por ejemplo, Corea del Norte ha realizado varios intentos desde 2010 de perturbar el sistema GPS en Corea del Sur mediante interferencia, que en alguna ocasión ha obligado a vehículos civiles (barcos, aviones) a regresar a otros sistemas de navegación alternativos de modo puntual. Según algunas alegaciones, Irán empleó la técnica del ‘spoofing’ de señales GPS (demostrada en una prueba de concepto por estudiantes estadounidenses en 2013) para capturar un avión espía sin piloto RQ-170 Sentinel sobre su territorio en 2011, aunque fuentes estadounidenses negaron esta posibilidad aclarando que Sentinel usa un sistema de navegación mixto GPS-Inercial que le permite volar sin las señales de los satélites de geolocalización. Las estaciones de control desde tierra de la flota espacial también han sido sometidas a ciberataques.

Tres nuevas tecnologías en una

De modo que la necesidad de reemplazar el sistema es imperiosa, desde hace tiempo. Y hay una iniciativa coordinada para mejorarlo mediante la incorporación de tres nuevos elementos, cada uno de ellos en una etapa clave del conjunto: el nuevo sistema de control GPS OCX, los satélites GPS III y los receptores MGUE (Military Gps User Equipment, equipo militar de usuario de GPS). El objetivo es aumentar la precisión del sistema y al mismo tiempo hacerlo menos susceptible a ataques cibernéticos, interferencias y ‘spoofing’, con una nueva encriptación de alto nivel para los usuarios militares (denominada M-code) y una resolución temporal aumentada para permitir su uso en el control del tráfico aéreo. 
El programa GPS OCX pretende renovar toda la infraestructura en tierra de control del sistema para hacerlo mucho menos vulnerable a ataques de cualquier tipo y al mismo tiempo más robusto y preciso. Para ello Raytheon, la empresa encargada de su desarrollo, está reemplazando todo el 'software' utilizado por otro que tiene en su núcleo un Filtro de Kalman, un algoritmo matemático diseñado para sacar el máximo partido de la recepción de radio en entornos ruidosos para aumentar la sensibilidad y reducir la posibilidad de ‘spoofing’. Además, todas las comunicaciones internas están encriptadas y firmadas para que el conjunto sea a prueba de interferencia. OCX está retrasado al menos 2 años y su precio ha subido hasta superar los 4.200 millones de dólares.


El mismo tipo de problemas han tenido los nuevos satélites GPS III que trabajarán con el software OCX para conseguir las nuevas capacidades previstas. Componentes defectuosos y otros que no resistieron las pruebas han provocado un retraso de 28 meses; los primeros estaban previstos para 2014 pero ahora el primer lanzamiento será en 2017 y no se prevé que estén en órbita y plenamente operativos hasta 2019.

Por su parte la empresa Mayflower ha sido designada contratista principal del programa MGUE, para el que desarrollará un módulo receptor común de avanzadas prestaciones que será el corazón de los nuevos receptores militares. El nuevo objetivo es que para 2020 todos los componentes del nuevo GPS estén en su sitio y a pleno rendimiento, lo que en principio resolverá buena parte de los problemas del sistema actual.


¿Y después? Pues para cuando esta nueva versión del GPS se quede obsoleta el departamento de ideas locas del Pentágono (DARPA) ya trabaja en conceptos como servicios de posicionamiento mixtos que combinan satélites y sistemas inerciales (que pueden ‘recordar’ el trazado realizado por un objeto móvil), e incluso capaces de usar para la localización señales de radio ajenas como ondas de radio comercial, de televisión o incluso de wifi; el llamado ASPN (All Source Positioning and Navigation posicionamiento y navegación de toda fuente). Para mediados de siglo es posible que el geoposicionamiento que hoy conocemos sea tan obsoleto como una catapulta medieval.



Fuente: https://www.elconfidencial.com/tecnologia/2016-07-18/el-futuro-sin-gps-la-tecnologia-que-sucedera-al-sistema-de-posicionamiento-mas-popular_1233842
https://www.youtube.com/watch?v=2uc98j7ipvI

martes, 30 de enero de 2018

¿ Qué es Raspberry Pi?



Los Mini PCs son siempre una buena opción para disfrutar de toda la potencia de un ordenador pero recurriendo a un tamaño compacto. Los podemos utilizar como servidor de contenidos, conectados al televisor y, por supuesto, como ordenador al uso. Raspberry Pi es uno de los productos más populares para estos fines, tanto por su atractivo preciocomo por las enormes opciones que trae consigo.
En 2012 llamó la atención de decenas de miles de entusiastas, tras emerger como un ordenador de bajo costeque pudiese llegar al mayor número de usuarios posible, y gracias a la amplia comunidad que aporta valor a este proyecto, existen usos tan diversos como sencillos de implementar con unos pocos conocimientos.
Pero, ¿qué es Raspberry Pi? En realidad, se trata de una diminuta placa base de 85 x 54 milímetros (un poco más grande que una cajetilla de tabaco) en el que se aloja un chip Broadcom BCM2835 con procesador ARM hasta a 1 GHz de velocidad, GPU VideoCore IV y hasta 512 Mbytes de memoria RAM. En cuanto a su precio, suele estar por debajo de los 40 euros, una de las razones que explica su popularidad. De hecho, a finales de 2013 se superaron ya las dos millones de unidades vendidas en todo el mundo.

Para que funcione, basta con que añadamos nosotros mismos un medio de almacenamiento(como por ejemplo una tarjeta de memoria SD), enchufarlo a la corriente gracias a cualquier cargador de tipo microUSB (el mismo que sirve para recargar la mayoría de los teléfonos móviles, cuyo coste es ínfimo) y, si lo deseamos, incorporar un chasis para que todo quede a buen recaudo y su apariencia sea más estética. Estos pueden ser desde cajas predeterminadas hasta una que fabriquemos nosotros mismos echándole grandes dosis de imaginación.
La fundación de Raspberry Pi pone a disposición desde su página web Raspbian, una distribución de Linux basada en Debian, pero también podemos recurrir a muchas de las distribuciones específicas que la comunidad de usuarios ha desarrollado para diversos fines.
En función del modelo que escojamos, dispondremos de más o menos opciones de conexión, pero siempre tendremos al menos un puerto de salida de video HDMI y otro de tipo RCA, minijack de audio y un puerto USB 2.0 al que conectar un teclado y ratón.
En cuanto a conexión de red se refiere, podemos disponer de Ethernet para enchufar un cable RJ-45 directamente al router o recurrir a adaptadores inalámbricos WiFi. En este caso, eso sí, conviene que nos decantemos por la Raspberry Pi que incorpora dos puertos USB, ya que si no no podremos enchufar el teclado y el ratón.


Para el almacenamiento, Raspberry Pi recomienda utilizar una tarjeta SD con una capacidad mínima de 4 Gbytes y de clase 4 (este valor aparece siempre impreso en la tarjeta, e indica su rendimiento en cuanto a velocidad se refiere).
Para enchufar nuestra Raspberry Pi a un monitor o televisor, necesitaremos un cable HDMI o, si no disponemos de tal entrada de video, un cable HDMI a DVI. También es posible recurrir en su lugar a la salida analógica RCA (identificada en nuestra tele por un cable amarillo).
Centrándonos en el teclado y ratón, lo más sencillo es adquirir un conjunto inalámbrico que conectaremos mediante un único adaptador, y así no necesitaremos de más puertos USB.

Instalación del software

Una vez tengamos la Raspberry Pi y los componentes necesarios listos, es hora de instalar el sistema operativo. Lo más sencillo es insertar la tarjeta SD de nuestra elección en nuestro ordenador y formatearla, preferiblemente con la ayuda de SD Formatter 4.0. En la guía de inicio rápido que proporciona la web oficial encontraremos todos los detalles para hacerlo bien en función del sistema operativo que estemos utilizando para el formateo (Windows, OS X o Linux).
En este momento, estaremos ya listos para instalar el sistema operativo de nuestra Raspberry Pi, que descargaremos desde downloads.raspberrypi.org/noobs con la ayuda de la herramienta New Out Of Box Software (NOOBS). Descomprimimos el archivo en la tarjeta SD y al insertarla en la Raspberry Pi veremos una serie de opciones de configuración, incluyendo un listado de sistemas que podremos instalar fácilmente.
Fuente: https://computerhoy.com/noticias/hardware/que-es-raspberry-pi-donde-comprarla-como-usarla-8614

lunes, 29 de enero de 2018

Dividendo digital, frecuencias y canales actuales de la TDT (Televisión Digital Terrestre)


El Dividendo Digital es el conjunto de frecuencias que han quedado disponibles en la banda de frecuencias tradicionalmente utilizada para la emisión de la televisión, gracias a la migración de la televisión analógica a la digital. Para que los ciudadanos puedan disfrutar de este dividendo en forma de nuevos servicios de banda ancha inalámbrica, es necesario disponer de un conjunto de frec uencias contiguo. En Europa se determinó que este conjunto de frecuencias sería la banda de 800 MHz (790-862 MHz). En España,  las frecuencias del Dividendo Digital, estaban esparcidas, y la banda de frecuencias de 800 MHz estaba ocupada, en parte, por algunos canales de la TDT (canales 61 al 69 de UHF). La liberación del Dividendo Digital fue el proceso de reordenación de frecuencias necesario para que la banda 800 MHz quedara disponible en toda Europa. Tras la liberación, el pasado 31 de marzo, la banda de 800 MHz dejó de utilizarse para la transmisión de la TDT y se ha asignado a los operadores de telefonía móvil para prestar nuevos servicios de banda ancha de cuarta generación (4G).
La televisión analógica ha utilizado para su emisión desde principios del segundo cuarto del pasado siglo XX, parte de la banda de frecuencias de VHF (47 a 230 MHz) y parte de la banda de UHF (470 a 862 MHz). La llegada de las tecnologías digitales, así como de nuevos sistemas de compresión de información, permitió reducir el número de frecuencias necesarias para la transmisión de la televisión, de modo que en el espectro necesario para transmitir un programa de televisión analógica, se pueden transmitir hasta 6 programas de televisión con tecnología digital con calidad equivalente. La migración de la televisión analógica a la digital supuso una gestión más eficiente del espectro radioeléctrico, que es un bien valioso y escaso, y permitió obtener un dividendo en forma de nuevas frecuencias disponibles, que se conoce como Dividendo Digital. Estas frecuencias disponibles pueden ser utilizadas para diversos fines, por ejemplo, nuevos programas de televisión de ámbito regional o nacional, televisión de alta definición o la prestación de servicios de banda ancha móvil.

Canales y frecuencias de Televisión 

http://www.canales-tdt.com/css/flecha.gifCanal
Mux
http://www.canales-tdt.com/css/flecha.gif Frecuencia
Xplora
33
570 MHz
laSexta3
33
570 MHz
laSexta HD
33
570 MHz
Cuatro HD
33
570 MHz
Energy
33
570 MHz
8Madrid
39
618 MHz
13TV Madrid
39
618 MHz
Kiss TV
39
618 MHz
Business TV
39
618 MHz
Astrocanal Shop
39
618 MHz
1shop
39
618 MHz
Nitro
49
698 MHz
Antena 3 HD
49
698 MHz
Marca TV
49
698 MHz
13 TV
49
698 MHz
Mundo Interactivo
49
698 MHz
esMADRIDtv
50
706 MHz
Ver-t
50
706 MHz
Libertad Digital TV
50
706 MHz
Vaughan TV
50
706 MHz
Latinavisión
50
706 MHz
EHS
50
706 MHz
New Millenium
50
706 MHz
TVE HD
55
746 MHz
TDP
55
746 MHz
La 1
58
770 MHz
La 2
58
770 MHz
24h
58
770 MHz
Clan
58
770 MHz
Boing
59
778 MHz
Telecinco HD
59
778 MHz
Paramount Channel
59
778 MHz
MTV
59
778 MHz
Telemadrid
63
810 MHz
La Otra
63
810 MHz
Telemadrid HD
63
810 MHz
Metropolitan TV
63
810 MHz
Cuatro
67
842 MHz
Divinity
67
842 MHz
Gol Televisión
67
842 MHz
La Tienda en Casa
67
842 MHz
laSexta
67
842 MHz
laSexta3
67
842 MHz
Telecinco
68
850 MHz
La Siete
68
850 MHz
FDF
68
850 MHz
Disney Channel
68
850 MHz
Intereconomía
68
850 MHz
Antena 3
69
858 MHz
Neox
69
858 MHz
Nova
69
858 MHz
Discovery MAX
69
858 MHz
AXN
69
858 MHz
GUIDE Plus+
69
(Sin Servicio)
706 MHz
50


Canales y frecuencias de Radio

http://www.canales-tdt.com/css/flecha.gif Canal
http://www.canales-tdt.com/css/flecha.gif Mux
http://www.canales-tdt.com/css/flecha.gif Frecuencia
Cope
39
618 MHz
Cadena 100
39
618 MHz
Kiss FM
39
618 MHz
Hit FM
39
618 MHz
Cope
49
698 MHz
Radio María
49
698 MHz
Onda Cero
49
698 MHz
Europa FM
49
698 MHz
Onda Melodía
49
698 MHz
Radio Clásica HQ
55
746 MHz
Radio 3
55
746 MHz
Radio Nacional
58
770 MHz
Radio 5 Todo Noticias
58
770 MHz
Onda Madrid
63
810 MHz
Radio Intereconomía
68
850 MHz
esRadio
68
850 MHz
ABC Punto Radio
68
850 MHz
Radio Marca
69
858 Mhz
Vaughan Radio
69
858 Mhz



Para que los ciudadanos puedan disfrutar del dividendo digital en forma de nuevos servicios de banda ancha móvil de cuarta generación (4G), es necesario disponer de un conjunto de frecuencias contiguo. En Europa se ha determinado que este conjunto de frecuencias será la banda de 800 MHz (790-862 MHz). En España, en la actualidad, las frecuencias disponibles por el dividendo están esparcidas, y la banda de frecuencias de 800 MHz está ocupada, en parte, por algunos canales de la TDT (canales 61 al 69 de UHF). La liberación del Dividendo Digital es el proceso de reordenación de frecuencias necesario para que la banda 800 MHz quede disponible en toda Europa. En España este proceso concluyó el 31 de Marzo de 2015. Una vez liberadas las frecuencias, los ciudadanos pueden aprovechar los beneficios del Dividendo Digital. En la figura 1 se puede apreciar la evolución de las atribuciones de espectro en la banda de televisión, antes de la migración a la televisión digital, después de la migración, y el resultado tras la liberación del Dividendo Digital.

Fuente: http://www.canales-tdt.com/television-madrid.php 
http://www.televisiondigital.gob.es/DividendoDigital/Paginas/dividendo-digital.aspx