Por tanto una parte muy importante es esa parte creativa, formativa y analítica. Nuestros investigadores pasan mucho tiempo pensando, leyendo, estudiando, analizando de manera constante para tener a partir de ahí buenas ideas o generando, analizando y sacando resultados y entender qué sugieren esos resultados.
No es una tarea automática en absoluto porque, ¿cuál sería la manera automática de hacerlo? Quizás, y esto ni siquiera es factible, lo digo como una posibilidad, sería probar todas las posibilidades, algo que es inviable porque las posibilidades son tan elevadas que es una tarea imposible. Una de las primeras cosas que los investigadores aprenden en su formación es que lo primero que hay que hacer es pensar, que probar a ciegas no es un buen método de investigación.
Xataka: Por un lado comentas que los investigadores tienen que ser por un lado analíticos y por otro creativos, lo cual parece una combinación bastante difícil. De hecho en el perfil de alguien que sale de una carrera tan técnica como informática o ingeniería el factor creativo se le presupone que está poco representado, además de minusvalorado. Debe ser un perfil muy difícil de encontrar.
Antonio González: El perfil que nosotros contratamos no es un ingeniero informático, es un doctor. El doctorado es la fase de la universidad en la que aprendes a investigar, y dura de cuatro a cinco años, no es un cursillo de seis meses. En el grupo, en la parte de investigación (no ya en desarrollo, que no es tan importante) la gran mayoría de gente a la que contratamos empieza con un grado de doctor, por lo tanto han aprendido esa fase de investigación: como uno aplica sus conocimientos a hacer un análisis crítico y constructivo de las soluciones actuales, cómo se generan y valoran las buenas ideas, se analizan resultados y se retroalimentan las soluciones hasta que al final la idea funciona, ya que de normal a una idea se le suelen dar muchas vueltas.
Discrepo un poco en eso de que los ingenieros no tengan creatividad, creo que también hace falta, quizás a otro nivel pero deben ser creativos a la hora de hacer un programa, no es investigación… pero al hacer un programa estás creando algo nuevo. No creo que sean tan cabezas cuadradas, evidentemente, entiendo lo que quieres decir, es un mundo muy análitico: no es como la psicología u otras ramas de humanidades.
Sobre innovación y tecnología
Xataka: Yo hacía software y me gustaba por eso, porque construías, porque hacías algo. Pensando en la gente que se está planteando su formación dentro de la informática, en general el 99.9% de la gente sigue el camino del desarrollo software que por su naturaleza es intensivo en mano de obra, la arquitectura de computadores mucho menos, ¿crees que eso va a cambiar? No porque el mundo del software no cambie, porque sigue siendo un mundo muy complejo, sino porque cada vez hay más desarrollos hardware, o más campos abiertos donde el mundo de los procesadores se está integrando.
Antonio González: Es lógico que haya más recursos humanos trabajando en la parte del software, porque precisamente estos sistemas hardware que desarrollamos son sistemas razonables de propósito general, lo cual significa que sobre ellos puedes crear un sinfín de aplicaciones diferentes, con lo cual abres la puerta a que la gente use su creatividad para construir aplicaciones muy diversas.
No es un nicho tan pequeño el hardware: en Intel hay cien mil empleados, es una de las mayores empresas a nivel mundial, también hacemos software por cierto, aunque tenemos más empleados en la parte hardware. A nivel de personas trabajando en software, seguramente haya más personas, pero hay otras opciones interesantes. ¿El futuro? No lo sé, la programabilidad parece un valor interesante, quizás es posible que haya más sistemas con herramientas automáticas para crear hardware ad hoc para soluciones concretas y que haga falta por lo tanto más ingenieros de hardware… pero dar la vuelta a la tortilla a corto plazo, no creo que vaya a pasar.
si en un área ya existe alguien que la lidera y otro competidor quiere entrar en ese área tiene una barrera importante, está compitiendo con alguien que tiene gran experiencia y además el ecosistema de la tecnología influye mucho, si el ecosistema favorece que se siga usando esa tecnología influye en muchos aspectos
Xataka: Muchas veces tenemos la idea, sobre todo en este país, de que innovación es lo que pasa en Sillicon Valley, lo que tendríamos que emular. Sin embargo el planteamiento de Intel parece diferente, con muchos labs distribuidos por el mundo, ¿qué ventajas e inconvenientes tiene este modelo distribuido? Porque por un lado parece que se crea una diversidad que no podría conseguirse si sólo tuvierais a gente de San Francisco pero por otra debe haber una dificultad de integración, combinar todo el proceso, etc, ¿cómo lo integráis luego? Antonio González: El estar en diferentes regiones o zonas tiene la ventaja de que tienes más diversidad de capital humano, algo que suele ser altamente beneficioso para la creatividad: gente con diferente entorno y diferente “background” mirando al mismo problema seguramente encuentren soluciones diferentes. Por otro lado existe una parte humana, por ejemplo, en España es muy claro que la gente tiende a tener un apego muy grande al lugar de donde es y si uno tiene una oferta para trabajar en otra ciudad que está bien, hay mucha gente que no se plantea irse lejos aunque la oferta sea radicalmente mejor, por tanto, distribuirse es una buena manera de captar los buenos talentos.
¿Cómo se coordina eso? Afortunadamente las tecnologías hoy en día nos ayudan, hay un cierto coste, pero las tecnologías lo mitigan: teléfono, videoconferencias, correo, etc. Te permite sincronizarte cuando haga falta con tus compañeros que trabajan en diferentes países, nosotros tenemos proyectos con gente trabajando día a día en diferentes zonas y no es igual de fácil que si estuvieran aquí pero no es un gran impedimento. Creo que las ventajas son mucho mayores que los inconvenientes.
Xataka: En el funcionamiento del lab, gran parte del valor está en decidir qué no sacar, vuestro propio CTO ha dicho que siempre se intenta fracasar en el laboratorio en lugar de fracasar en el mercado. Existirán entonces un montón de productos que se hagan en el laboratorio que realmente nunca lleguen a ser utilizados por la gente, ¿cómo se mide el éxito o el retorno del valor de vuestro trabajo? ¿cómo se mide en una empresa como Intel que el lab de Barcelona va bien? Antonio González: Básicamente, los componentes más importantes son el impacto en los productos que ofrece en la empresa, que puede reflejarse de muchas maneras; un ejemplo es que tenemos una nueva forma de hacer el banco registro y lo ponemos en un microprocesador. Otro impacto es que, por ejemplo, tenemos en la mesa este tipo de alternativas y descartamos estas otras por x motivos, porque sabemos por experiencia e investigación previa que eso te va a conducir a un mal camino, es un impacto porque impide que hagas una inversión enorme en el desarrollo de un producto que luego no iba a funcionar. El impacto puede ser también a nivel de poner sobre la mesa una nueva dirección, como aumentar el número de cores por ejemplo, aunque esto sea algo más abstracto, no una solución concreta.
El impacto de los productos es un parámetro importante. Nosotros creamos propiedad intelectual, que puede traducirse en patentes y también para nosotros es muy importante la colaboración desde los labs. Queremos interactuar con el ecosistema de investigación y la manera en la que interaccionamos es a través de publicaciones, charlas o conferencias donde se comparten las soluciones y resultados que van obteniendo los diferentes grupos, lo cual crea retroalimentación, ya que permite compartir con todos los investigadores mundiales los retos de futuro, contribuye a buscar soluciones. Esos son los pilares más importantes.
Intel en la industria
Xataka: Dentro del estado de Intel en la industria, hay una lectura rápida que hacemos a a veces, que dice que el que ha competido con Intel con su mismo enfoque no ha conseguido superarlo (podemos pensar en un caso como el de AMD) pero que la verdadera competencia de Intel está en quienes han adoptado un modelo radicalmente diferente o al menos muy distinto, conquistando un espacio de bajo consumo, poco calor, como ARM. También tenemos Nvidia y su liderazgo en las GPUs. La pregunta es ¿está sufriendo Intel cierta inercia frente a sus competidores? ¿le cuesta conquistar o ser relevante en otros contextos: bajo consumo, movilidad, etc? ¿cómo lo véis desde el punto de vista del laboratorio?
Antonio González: A nivel de bajo consumo, Intel es muy competitivo, esta es una de las principales prioridades en I&D, a nivel de desarrollar hardware de bajo consumo creo que hay una gran experiencia tanto a nivel de tecnología, creo que mucha gente reconoce que es la mejor en el mundo, como a nivel de diseño y de cómo diseñar soluciones de bajo consumo.
Otra pregunta diferente a la que me planteabas es que no es el consumo en sí, es que entrar en un nuevo mercado es siempre una tarea ardua. Hay áreas de mercado en las que después de muchos años Intel ha conseguido una situación de liderazgo y mantenerla cuesta porque hay que ir innovando constantemente, y luego hay otras áreas donde no somos líderes. La posición de liderazgo en un área no se consigue de la noche a la mañana, requiere una inversión a largo plazo y un esfuerzo día a día, porque puede darse que ese área no existiera o fuese algo mínimo y ahí hay muchos competidores en búsqueda de liderazgo.
Otra posible situación es, si en un área ya existe alguien que la lidera y otro competidor quiere entrar en ese área tiene una barrera importante, está compitiendo con alguien que tiene gran experiencia y además el ecosistema de la tecnología influye mucho, si el ecosistema favorece que se siga usando esa tecnología influye en muchos aspectos. La competencia está ahí, es siempre importante, tanto en los sitios en los que ya eres líder como en las áreas donde quieres serlo y es la única manera para seguir evolucionando. Hay que seguir invirtiendo enormemente en las áreas donde uno quiere seguir siendo relevante.
Xataka: Cada vez se habla mucho más del “todo conectado”, del machine to machine o de los sistemas embebidos que parece un planteamiento que tecnológicamente desemboca en mucha computación, es un modelo muy de Soc, de integrar comunicaciones dentro del chip ¿es el tipo de computación al que vamos? ¿Intel ve por ahí un desarrollo potente? ¿mi coche tendrá un procesador, se conectará con cosas o es realmente algo a largo plazo, una visión de futuro que aún no deberíamos dar por hecho?
Antonio González: Básicamente, es una de las visiones que tenemos, creemos que es un área con un elevadísimo potencial, porque creemos que puede proporcionar al usuario mejoras sustanciales en determinados aspectos de su vida, sea salud, seguridad en el coche o entretenimiento. Es un área muy atractiva, en la que hay un gran potencial de innovación y de impacto para los usuarios: tener sistemas inteligentes a nuestro alrededor que nos ayuden en un sinfín de tareas.
Lo que cuesta visualizar hoy en día es que serán exactamente, aunque pueda verse la punta del iceberg, ejemplo: botas de fútbol con chip que sacan las estadísticas de cuando juegas al fútbol, mi hijo me las está pidiendo ya (risas), es un nuevo tipo de sistema inteligente que en este caso, mi hijo considera que le ayudaría a entrenarse mejor. Este tipo de sistemas pueden ayudarnos a realizar mejor nuestras actividades normales: sistemas que controlen la salud de las personas mayores que estén en casa, o les ayuden a utilizar mejor la casa (hay personas mayores que tienen limitaciones), les podrían dar una calidad de vida mejor y más independencia.
Hay un elevadísimo potencial.
poner el hardware en una base de datos para que otra persona lo baje y haga una copia exacta del procesador es algo que creo que no lo hace nadie porque como todo la inversión para hacer ese diseño de hardware es enorme, nadie hace las cosas gratis, ¿cómo íbamos a pagar a los ingenieros? Hardware libre / abierto
Xataka: Hay un tema que está siendo cada vez más relevante, a la luz de la decisión del Congreso de los Estados Unidos que dijo que los equipos de dos fabricantes chinos del campo de las telecomunicaciones, ZTE y Huawei, no son fiables. Realmente lo que están diciendo,aunque no les guste admitirlo, es que son cajas cerradas sobre las que no tenemos control y por las que circula información muy relevante. El hardware siempre ha quedado algo lejos del debate de lo libre, que sí ha sido preponderante el mundo del software, pero el hardware siempre quedó aparte de ese debate aunque noticias como esta dan la impresión de que va a haber una demanda de hardware abierto, que se cedan a todas las especificaciones y que se acceda a toda la información de las tripas de todo el equipamiento. Hay proyectos muy chulos como Arduino y (actualizado: Raspberry Pi, que como indican en los comentarios no es libre, sólo gran parte del software que lo acompaña; Arduino se ofrece con una licencia CC, por lo que tampoco es estrictamente libre) pero en otro orden de magnitud. ¿Cómo ves este tema? No ya desde Intel que imagino que tiene una estrategia clara al respecto, sino dentro del mundo del laboratorio y la investigación, de compartir conocimientos, el hardware y software libre y cómo influye eso en vuestro trabajo.
Antonio González: Compartir conocimiento es un aspecto muy valioso en el que somos muy activos, en el lab de Barcelona en cuanto a productividad científica y publicaciones creo que somos de los grupos más productivos a nivel mundial.
Somos competitivos con los mejores grupos de investigación de universidades y otros centros de investigación, creemos que compartir información genera unas sinergias muy positivas en el global del ecosistema que nos ayuda a mejorar porque de alguna manera nos retroalimentamos todos, somos proactivos en esa faceta de publicar resultados, dar conferencias, etc. Es un enorme valor.
Xataka: Entiendo que no vamos a ver un hardware libre de Intel en los próximos años, no es la estrategia, pero la corriente de lo libre y lo abierto cada vez es más relevante: quizás en el mundo académico ya lo es, faltaría quizás en el mercado, decisiones de compra, etc. Antonio González: Con “Hardware abierto” no sé a exactamente a qué te refieres, compartir las principales técnicas que se usan para diseñar algunos componentes es un área donde Intel es muy activa, pero poner el hardware en una base de datos para que otra persona lo baje y haga una copia exacta del procesador es algo que creo que no lo hace nadie porque como todo la inversión para hacer ese diseño de hardware es enorme, nadie hace las cosas gratis, ¿cómo íbamos a pagar a los ingenieros? Xataka: Entiendo que hay una lógica de creación de valor en el mundo del software libre que todavía no está clara en el mundo del hardware , pero también observo que este era el discurso de, por ejemplo, Microsoft, líder del desarrollo software a nivel mundial y que al cabo de los años está apoyándose mucho en software libre, empieza a liberar código, empieza a entender parte del valor, ¿está muy lejos el hardware de eso?
Antonio González: En esa misma línea, todo depende del modelo de negocio, y esto puede cambiar con el tiempo, en el software hay una parte muy importante del negocio que se basa en no ya comprar el software, sino sustentado en otras cosas. Que exista una cierta manera de desarrollar ciertos productos no significa que esa sea la única y la mejor manera para todos, en hardware algo parecido sería tener bloques o diseños que uno pueda integrar (hay algunos libres de acceso ya) o utilizar para pequeños estudios o pequeños prototipos. Es un modelo de negocio diferente por muchas características, porque en hardware no es un número pequeño de desarrolladores, es un sinfín de características, pero igual que ha sucedido con el software y cada vez vemos más formas de desarrollo de software, en hardware también todo puede cambiar.
Fuente: xataka.com
- Visto: 740