Recesión mundial por el fin de la Ley de Moore - página 6

 
Nikolay Demko:

Así que en el futuro habrá granjas de computación que se dedicarán a los usuarios y los ordenadores de sobremesa y los portátiles serán sólo los terminales para comunicarse con el mainframe.

De ahí la moraleja: Intel estará más ocupada que nunca porque incluso los procesadores que están disponibles serán cada vez más necesarios y no preveo ningún estancamiento en esta industria (imho).

Sobre el crecimiento de la computación en nube estoy de acuerdo. Pero no está claro cómo salvará a los ordenadores portátiles y a los teléfonos inteligentes. Se convertirán en terminales de conexión a Internet. Su mejora dependerá de la velocidad de transferencia de datos. La primera generación de teléfonos inteligentes tenía una capacidad de 1 a 2 mbps, la segunda de 10 mbps, la tercera de 54 mbps, la actual cuarta de 600 mbps y la próxima quinta tendrá una capacidad de 5 gbps mediante ondas milimétricas. Las primeras tabletas y fondos con esta capacidad se demostrarán en los Juegos Olímpicos de Invierno de 2018 en Seúl. La producción en masa será en 2020. Después, el aumento de la velocidad de los datos no tendrá ningún efecto tangible. Y aumentar las frecuencias más allá de los milímetros resulta poco práctico debido a la disminución de la distancia (menos de 10 metros). Así, los ordenadores portátiles y los fondos convertidos en terminales de conectividad en la nube también tienen un límite de desarrollo en 2020, al igual que la tecnología de microprocesadores de silicio. sin embargo, sus ventas caerán drásticamente a partir de 2020. Los centros de cálculo crecerán, pero a los fabricantes de pantallas de fondo, por ejemplo, no les importará. Apple también se verá afectada porque su negocio está orientado al consumidor, no a los servidores.
 
Vladimir:

El consumo de energía del elemento del circuito lógico se calcula mediante la fórmula

P = f*C*V^2

donde f es la frecuencia, C es la capacidad de carga (capacidad de entrada del siguiente elemento + capacidad de la conexión metálica), V es la tensión de alimentación. La frecuencia ha dejado de aumentar en los últimos 5-10 años, 2-3GHz. El menor tamaño de los transistores permitió reducir la capacitancia de carga (menor capacitancia del transistor de entrada y conexiones más cortas entre los transistores) y una menor tensión de alimentación. Cuando empecé en la industria, la tensión de alimentación era de 5V, luego de 3V, 1,5V, 1V y ahora de 0,5V. Cada nueva generación de tecnología de silicio conduce ahora a una reducción de la tensión de 0,1-0,2V. Cuando la ley de Moore se detiene, la potencia deja de disminuir y el número de núcleos deja de crecer.

Pocas personas saben que toda la tecnología de los circuitos integrados fue desarrollada por Intel. Todas las empresas del mundo están copiando a Intel. Inventaron FinFET hace 10 años y tardaron todos estos 10 años en implementarlo en la producción. Mis amigos de Intel me dicen que no tienen más ideas. Nuestra empresa está financiando la investigación en varias universidades, pero hasta ahora no hay nada. El mundo está al borde de unas consecuencias bastante nefastas del fin de la ley de Moore. En épocas de dificultades económicas, suelen producirse guerras mundiales, lo que provoca un aumento de las inversiones de los Estados en nuevas tecnologías y el posterior desarrollo de éstas con fines pacíficos. Así ocurrió durante la Segunda Guerra Mundial: Alan Turing inventó el ordenador para descifrar los mensajes militares alemanes. Hace 25-30 años, como consecuencia de la revolución informática, surgió la necesidad de conectar los ordenadores en red y nació Internet. En los últimos 10 años, Internet ha cambiado poco en esencia. Hoy en día, los smartphones pueden conectarse a Internet casi a la misma velocidad que un ordenador doméstico. No puedo imaginar qué nueva tecnología ocupará el lugar de los ordenadores e Internet y permitirá que continúe el crecimiento económico mundial.

Sí, a eso me refería )
 
Alexey Busygin:
¿Puede recomendar una CPU con 256 núcleos
NVidia más reciente > 2000 núcleos
 
Vladimir:
El límite del desarrollo en 2020

¿Cómo puedes estar tan seguro de que si no ves una perspectiva, no la hay?

Admito que es posible ser un buen experto en un sector y tener una buena idea de lo que le espera en el horizonte de 2-5 años (aunque en el sector tecnológico es un horizonte demasiado lejano, en mi opinión).
Pero no se puede estar al tanto de todas las investigaciones en todos los campos relacionados, ¿verdad?

Si se alcanza un techo de gigahercios o gigabits/seg, se encontrará alguna alternativa (seguramente un orden de magnitud más potente) y el mundo seguirá evolucionando. A menos que, por supuesto, ese desarrollo sea necesario.

Es como discutir sobre la producción de energía hidroeléctrica y molestarse porque en 5 años todos los ríos se utilicen de la forma más eficiente posible, pero no ver que hay un montón de alternativas mucho más potentes, desde las bombas de calor hasta la energía nuclear.

¿Por qué la melancolía? )

 
La óptica dictamina que un ex científico ruso en Estados Unidos ya ha conseguido retener la información en un cristal durante más de 0,5 segundos sin alimentación
 
Alexey Volchanskiy:
NVidia más reciente > 2000 núcleos
No encuentro ninguna CPU, sólo tarjetas
 
Alexey Busygin:
No encuentro ningún procesador de ellos, sólo tarjetas

La tarjeta es el procesador. Se escribe el código en Visual Studio 10 en lenguaje CUDA C, se compila en la GPU y se ejecuta. Escribir código para la GPU es mucho más difícil que para la CPU. Hay que añadir comandos para la asignación de memoria en la GPU (normalmente no hay mucha), la transferencia de datos de la CPU a la memoria de la GPU, comandos especiales de paralelización, la reescritura de los datos de vuelta, la liberación de memoria, etc. Un montón de sutilezas diferentes, pero consigues usar 3000 núcleos. Ver aquí

https://developer.nvidia.com/how-to-cuda-c-cpp

GPU Accelerated Computing with C and C++
GPU Accelerated Computing with C and C++
  • developer.nvidia.com
With the CUDA Toolkit from NVIDIA, you can accelerate your C or C++ code by moving the computationally intensive portions of your code to an NVIDIA GPU.  In addition to providing drop-in library acceleration, you are able to efficiently access the massive parallel power of a GPU with a few new syntactic elements and calling functions from the...
 
Vladimir:

La tarjeta es el procesador. Se escribe el código en Visual Studio 10 en lenguaje CUDA C, se compila en la GPU y se ejecuta. Escribir código para la GPU es mucho más difícil que para la CPU. Hay que añadir comandos para la asignación de memoria en la GPU (normalmente no hay mucha), la transferencia de datos de la CPU a la memoria de la GPU, comandos especiales de paralelización, la reescritura de los datos de vuelta, la liberación de memoria, etc. Un montón de sutilezas diferentes, pero consigues usar 3000 núcleos. Ver aquí

https://developer.nvidia.com/how-to-cuda-c-cpp

He preguntado por el procesador, no por la tarjeta de expansión ya que sus ranuras de instalación son diferentes.
 
Andrey Khatimlianskii:

¿Cómo puedes estar tan seguro de que si no puedes ver la perspectiva, no la hay?

Admito que se puede ser un buen experto en un sector y tener una buena idea de lo que le espera en el horizonte de 2-5 años (aunque en el sector tecnológico eso está demasiado lejos, en mi opinión).
Pero no se puede estar al tanto de todas las investigaciones en todos los campos relacionados, ¿verdad?

Si se alcanza un techo de gigahercios o gigabits/seg, se encontrará alguna alternativa (seguramente un orden de magnitud más potente) y el mundo seguirá evolucionando. A menos que, por supuesto, ese desarrollo sea necesario.

Es como discutir sobre la producción de energía hidroeléctrica y molestarse porque en 5 años todos los ríos se utilicen de la forma más eficiente posible, pero no ver que hay un montón de alternativas mucho más potentes, desde las bombas de calor hasta la energía nuclear.

¿Por qué la melancolía? )

No hay melancolía, hay temor por el futuro, tanto el mío como el de los demás. Ciertamente, es muy fácil vivir cuando se confía en que los científicos encontrarán una solución a un problema, una nueva tecnología, una cura para el cáncer o una solución al calentamiento global. El final de la ley de Moore es bastante relevante. Lea los artículos recientes sobre el tema. Mi opinión puede ser pesimista, pero se basa en un profundo conocimiento de la tecnología de los semiconductores y de las últimas investigaciones en este campo en virtud de mi especialidad. Se necesitan unos 10 años para llevar una nueva tecnología a la producción en masa, y hasta ahora no ha aparecido ninguna en los laboratorios de las empresas o universidades. Así que espero un estancamiento de 5 a 10 años, o incluso más, en la tecnología informática. Existe una organización mundial, ITRS (International Technology Roadmap for Semiconductors), formada por empleados de las principales empresas de semiconductores, que publica la hoja de ruta de los semiconductores para el futuro próximo (su visión de hacia dónde va la tecnología). Llevan publicando esta hoja de ruta desde 1965, cada dos años. El último fue el informe de 2014. El próximo informe debería publicarse este verano. Todo el mundo en este campo esperaba este informe, pero nunca salió a la luz y la organización pasó a llamarse Hoja de Ruta Internacional de Dispositivos y Sistemas (IRDS) y se subordinó al IEEE. Esta nueva organización publicará una hoja de ruta de los sistemas informáticos y de comunicación, software, etc. Lo que se incluirá en este informe es bastante impreciso.

http://www.eetimes.com/document.asp?doc_id=1329604

EE Times | Electronic Engineering Times | Connecting the Global Electronics Community
EE Times | Electronic Engineering Times | Connecting the Global Electronics Community
  • www.eetimes.com
EE Times connects the global electronics community through news, analysis, education, and peer-to-peer discussion around technology, business, products and design
 
Alexey Busygin:
He preguntado por el procesador, no por la tarjeta de expansión que tienen diferentes ranuras de montaje.

GPU = unidad de procesamiento gráfico (producida principalmente por Nvidia)

CPU = unidad central de procesamiento (fabricada por Intel o AMD)

Ambos son procesadores. ¿No lo entiendes? Llama a la GPU tarjeta o lo que quieras pero es un procesador con 3000 núcleos si tienes el último modelo. Si tienes un ordenador también es una GPU, lee en la documentación qué modelo tienes y cuántos núcleos tiene.

Razón de la queja: