¿Existe un límite?

zKoRp

Bueno, comentar que ha habido varios post muy interesantes, pero todos se han quedado quietos en el silicio y en las velocidades de reloj de UN solo núcleo.

Me ha tocado este año diseñar circuitos con sistemas integrados y os puedo asegurar que la velocidad no está en los Mhz ni en las ordenes interiores del procesador, si no en la cantidad de bits y en como se comunican estos.

Me explico el silicio esta claro que cada vez da menos de sí, por lo que se están probando con mas componentes de su mismo grupo periódico (el IV) por tanto esa combinación con sustancias dopantes (del grupo III y del grupo V) hacen que los electrones se pueden mover mas o menos deprisa, el problema viene en la conmuntacion de transistores (cambio de 1 a 0) donde se produce un efecto capacitivo, es decir las cargas se acumulan y tardan en salir. Esta es la limitacion que nos va a ofrecer el silicio con sus actuales formas de dopaje, enotnces... porque hablamos de componentes inertes.

El futuro está en los procesadores biológicos, dejan al TeraHerzio como una unidad de juguete, no tiene estos problemas y no se calientan.

Otra solución es dejar los electrones por luz, aunque esto está mas lejano puede suponer un avance increible.

Respecto al so bits, lo que hacemos la subir a 64 bits no es duplicar la velocidad si no elevarla al cuadrado, imaginaros 128, 256, etc... el problema sería que el procesador tendría tanto número de patillas que tendría que darse integrado, así a ojo superariamos las 2000 patillas con 128 bits facilmente, lo cual no deja de ser un problema...

Y lo de varios procesdores es algo parecido al HT de Intel, pero sin chapucerias, es decir, si nos basamos en tecnología CISC lo hacemos para todo, no ahorrando en caché, y si lo hacemos en RISC tambien con todas las consecuencias es decir integrando mucho, cosa que AMD ha empezado a hacer pero vagamente, si solo ha integrado un aparte en los AMD 64 y ya notamos un gran cambio e INTEL ha puesto mas cache y tambien se nota, que pasará cuando cumplan las normas de sus arquitecturas en serio??? Pues que no necesitaremos tantos Mhz ni tanta chorrada...

Salu2

LoRTH

Todo esto donde lo explican?¿ Yo es que lo flipo de todo lo que sabeis.... Supongo que sera en la Uni...

m0rG

Las características de la cache deben ser acordes con las posibilidades del micro.Un micro que presenta un rendimiento óptimo con X cantidad de caché no necesita más ya que además de no ser beneficioso podría provocar un descenso de rendimiento (cache más grande,cuesta más tiempo encontrar los datos que se necesitan).Eso sin contar que un aumento de la memoria cache también aumenta el tamaño de ésta,por lo que sería necesario rediseñar todo el micro (en el caso de que esté integrada On-Die).

Massive

joe después de haber leído algun comentario me siento mazo ignorante !_!

NO me hagáis más esto plz U_U

ainss putas mates...

B

lo triste de todo esto es que tenga que venir de fuera porque es donde se han dado cuenta que la investigación es el futuro y ponen pasta para estas cosas.

cuando haya superconductores a temperatura ambiente tb habrá un salto grande en todo esto.

lo que seguro que no es el futuro es que cada vez las fuentes de alimentación tengan que ser más bestias pq el consumo eléctrico de los pc's no para de crecer.

edit.:
zKoRp (#37) superconductores
pero la respuesta es interesante igualmente xD

ach3chin0

IO creo que conforme avance todo, algo inventaran, si hay algo que el ser humano tiene de sobra es Imaginacion :)

En cuanto a que nos depara el futuro..., pues la verdad es que viendo los avances estos ultimos 5 años... , NO acierto a imaginar que nos podra deparar los años venideros...

Lo que es mas que probable es que como todos venimos observando, tendemos a la miniaturizacion..., los tamaños de los integrados en los chips cada vez son mas y mas pequeños hasta que lleguemos a un punto NO MUY lejano donde el tamaño sea practicamente MOLECULAR, ahi es donde los efectos cuanticos predominaran y la Era del Silicio se acabara...

Los superconductores a Tª ambiente desde luego podrian generar una 2ª Revolucion Industrial, como bien dice Fuljencio

Daos cuenta que esa miniaturizacion q estamos viviendo tiene q tener un final, la creacion de chips con haces de luz como explicabamos al principio se encuentra con varios problemas serios, hemos de recurrir a Rayos X, o a electrones, y estos precisan de un control complicado, ademas de las propiedades ondulantes (Teoria Cuantica) de los electrones cuando trabajamos en estas escalas. Asi que deberan abandonar la Fisica Newtoniana para empezar a abordar el tema desde una perspectiva Cuantica.

He aqui el principio de las Maquinas Moleculares y las Maquinas de ADN y Maquinas Cuanticas.

Nos referimos a los Transistores Cuanticos, como todos sabreis, uno de los postulados de la Fisica Cuantica es que la materia puede exhibir caracteristicas de Onda y Particula. Electrones con bajas energias se comportan como ondas y con altas se comportan como particulas puntuales, curioso pero cierto. Es como si un electron en condiciones de alta energia NO pudiera evitar un obstaculo y en condiciones de baja energia podria eludirlo. Uno de los principios que MAS interesantes me parecen de la Fisica Cuantica es que existe una probabilidad finita de que hechos aparentemente poco plausibles puedan ocurrir. Imaginad que estais en delante de vuestro ordenador y teneis un problema con vuestra fuente de alimentacion. Normalmente abrimos el chasis y desmontamos la fuente.Sin embargo hay una probabilidad finita de que los atomos de nuestra mano pasen a traves de la chapa de la caja. Esta probabilidad es calculable y el hecho es tan pequeño que NO tendra lugar en la vida del universo. Esta es la razon de que la Fisica Cuantica NO pueda regir nuestra vida diaria, pero leed esto atentamente:

Todos sabemos que los electrones estan atrapados en el hardwiring de nuestros integrados, golpeando constantemente las pistas, como podreis imaginar el numero de electrones y el numero de impactos son ENORMES y hay una probabilidad de que estos escapen, sobre todo si la pista es lo suficientemente delgada. Dado que el hardwiring de los integrados se empieza a mover por el orden de las escalas atomicas y dado el gran numero de electrones, una fraccion de estos podran escapar filtrandose por las barreras haciendo IMPOSIBLE el avance de los circuitos logicos standard.

La realidad de los transistores cuanticos que puedan manejar de manera individual 1 solo electron es ya viable. Este electron puede vibrar con frecuencias diferenciadas, asi mismo este electron atrapado en un punto cuantico (electron confinado en un espacio de 20nanometros) resonara. Para ciertas frecuencias podra vibrar dentro de este punto, permitiendo que sobre ese punto se establezca un nuevo flujo electronico, esto se correspondera al bit-1, si se sube el voltaje un poquito mas, la resonancia se destruye y el flujo electronico desaparece, esto corresponde al bit-0.

Asi que este punto cuantico corresponde a varios transistores. Asi que como podemos entender el transistor mas pequeño del mundo es 1 solo electron atrapado en un punto cuantico poco mas grande que un atomo y que puede imitar a la accion de bastantes transistores. Estos ya han sido construidos, presentan problemas sensibilidad y llegaran al mercado en un plazo que nadie puede asegurar

Este es el fundamento de los nuevos transistores cuanticos

Otro punto son los ordenadores de ADN:

Las Moleculas de ADN son el material idoneo para un ordenador molecular, eficientes y compactas. Pensad que el ADN alberga puede albergar mas de 100 millones de veces la informacion guardada en cualquier dispositivo de almacenamiento actual. Se han hecho varios experimentos reuniendo un numero MUY alto de moleculas de ADN en un tubo de ensayo (1020) pudiendo efectuar calculos simultaneos. Aunque los ordenadores basados en el silicio son rapidos, generan MUCHO calor, actualmente los ordenadores de ADN son mas rapidos y varios miles de veces mas eficientes en lo que a cuestiones energeticas se refiere. Ambas maquinas ADN-based y Silicon-based son digitales, para los basados en el Silicio, esta informacion se codifica en el tipico codigo binario: 0001110010101.
En el caso de los de ADN utilizamos los 4 acidos nucleicos A,T, C, G. Fijando una serie de alternativas:
ATTCG=1 ; TTCGA=0 y usando enzimas de restriccion para cortar ADN se pueden reproducir paso a paso TODAS las operaciones de una maquina convencional (Turing).

Para hacer una analogia y facilitar el entendimiento de esta nueva tecnologia, si reunimos en 1000 litros, unos 700gr de moleculas de ADN, podriamos almacenar mas INFORMACION que en todos los ordenadores creados hasta el dia de hoy. Ademas unos 30 gr de ADN serian del orden de 100.000 veces mas rapidos que cualquier superordenador CRAY.

Los problemas de estas maquinas de ADN, que se sepan a dia de hoy es su fragilidad, las moleculas de ADN se descomponen, habria q estar transfiriendo INFO de una maquina de ADN "anciana" a otras mas "jovenes". Ademas son poco versatiles necesitando nuevas reacciones para poder catalizar compuestos basandose en nuevas enzimas para cada problema a resolver.

Q interesante hilo se ha creado...

H

zKoRp

Bueno por partes:

m0rG eso de la caché es relativo, veamos, existen dos tipos de arquitecturas como he nombrado antes de pasada y que ya expliqué en otro post extensamente, dependiendo de la arquitectura la cache es mas o menos util, por ejemplo AMD trabaja con muchos datos pequeños rapidamente, digamos que como una autopista de muchos carriles de ida y vuelta, por lo que lo que necesita es una comunicación rápida con sus componentes de ahí que el AMD 64 tenga la controladora de memoria integrada, y esto suponga un incremento de rendimiento considerable.
Sin embargo en INTEL funciona de otra forma, su arquitectura lo que hace es cojer procesos muy grandes, extemadamente grandes comparado con AMD y procesarlos, en este caso cuanta más caché mas beneficiosa sería, ya que el acceso de cache no es como un disco duro, si no como memoria, de la forma FIFO (creo que es esa o LIFO), FIFO es en inglés (first in first out) es decir el primer dato que entra es el primero que sale porque está así estructurada la memoria. LIFO es igual pero al revés. Que quiero decir con esto, pues que mientras la cache sea en formato integrado en el núcleo del procesador no representará mayor problema de lentitud o si lo presentara ser vería equilibrado por la propia arquitectura INTEL. Y... ¿En que beneficia todo esto?, pues en que al hacer el procesador procesos cuanto mas gordos posibles, cuanto mas grande la caché, menos espera tendría que tener el procesador entre proceso y proceso, ya que aunque el otro estubiera todavía enviandose la caché sería tan jodidamente grande que le daría igual y seguiría trabajando y cojiendo procesos.
En el caso de los P4 EX tiene mas que suficiente caché, efectivamente no es necesraio más, no porque sea malo si no porque el resto del equipo aun no está preparado para aprovechar una caché excesiva para usos habituales (servidores y demás cuanta más caché mejor), ya que la velocida de comunicación entre los componentes (FSB, HTT, etc..) hace un cuello de botella que es lo que hay que subsanar para conseguir un mayor rendimiento.

Lorth: lo que expliqué antes efectivamente es de la universidad, así exlpicado queda muy guay y muy interesante, pero creeme lo llegas a odiar, se llama teoría de portatores y lo del retraso en la conmuntacion de transistores, no solo hay que explicarlo si no diseñar sistema para mejorar la conmutación, exlpicar los efectos capactivos (acumuladores de corriente) de las uniones en semiconductores, vamos un follón de fliparlo, que por cierto dentro de poco me examino :)

Fuljencio: ¿Semiconductores a temperatura ambiente? Mmm creo no haberte entendido bien, vamos a ver un semiconductor tiene qu eestar a temperatura ambiente, de hecho a 0ºK un semiconductor es un aislante y por tanto no sirve, el semiconducor debe funcionar a tª ambiente. Si te refieres a que no se deban refrigerar, pues eso posiblemente nunca se podrá hasta que no saquen procesadores orgánicos, la razón es que el paso de electrones ocasiona una disipación de calor, eso siempre va a serasí es fisica/quimica pura y dura, entonces a mayor frecuencia, mayor voltaje para que no haya ruido (o disminución del transistor) para equilibrar el ruido generador por una frecuencia alta que podría causar que no funcionara el micro, entonces... ¿por qué se reduce el voltaje en vez de subirlo? Pues porque bajan el temaño de los transistores :)

Salu2

HaNn

si señores interesantisimo post a ver si kontinuais hbalndo y me voy enterando de mas cosas. enga 1 saludo

m0rG

zKoRp una pequeña duda.Sé en que consisten las arquitecturas CISC y RISC pero ¿INTEL es un tipo de CISC?(me refiero a la plataforma P4) y ¿AMD es RISC-based? .Y otra cosa,¿estas arquitecturas usan el sistema FIFO o LIFO? (que yo pensaba que tenía más que ver con las interrupciones)

ZeroX_r00lz

Interesantísimo post..... Me gustaría ke se pusiera fijo....

Seguir asi chic@s xDD

Salu2

FaRfLy

achech1n0..O_O impressive tio, pfff
respekto al post, se inventará alguna otra teknologia tipo matrix o algo fijo, esperad a ke los chinos espavilen

LoRTH

zKoRp, gracias por contestar...

Mi profe de Electrotecnia, 1º Batx, nos explico que los superconductores actualmente esta refrigerados a unos -100 Cº, no¿¿

Y los procesadores de apple, vease G5, como es su estructura,como con la x86(Es asi?¿) ?¿

Rtg

Interasintismo post tios xD

Lo flipo

#41 esperemos k seamos los de aki k inventemos kosas i dejemso de tener a lso japoneses coma ases de la electornika teniendo aki a esots individuos xD

Salu2 y seguid asi

PD: Pal FAQ plz

zKoRp

Bueno sigamos con coñazo de teoría de memorias y de portadores :D

M0rG, desgraciadamente no se de que tipo es la memoria, desde luego lo que no puedes hacer es acceder a un bit en concreto, como si fuera una estantería (que es como mucha gente se piensa) ya que si no una memoria de alta densidad de 512 MB que tenga pongamos 16 chips, sería:

32Mb por chip, de donde---> 32x1024 = 32768 Kb x1024=33 554432 bytes x 8 = 268435456 patillas + alimentación + masa cada chip tendría = 268435458 además si no usaramos metodos de seleccion de chip, tendria cada modulo 4294967328 contactos!!!! Pa flipar :D, por ello mismo se usan sistemas de ordenamiento, lo que no te puedo decir si son FIFO o LIFO, en cualquier caso no se produce el efecto que tu dices, ya que no tiene que buscar la información porque la tiene siempre allí, simplemente mira donde está y la coje, no la tiene que buscar un cabezal.
En cuanto a arquitecturas no tiene nada que ver el FIFO o el LIFO co la arquitectura, una cosa es como trata los datos para su proceso y otra su almacenamiento que son cuiestiones totalmente diferentes.
Las interrupciones, efectivamente son direcciones de memoria, porque claro, tu le tienes que decir donde está lo que quieres buscar, lo que pasa es que esto que estoy explicando es por chip, existe una especie de sistemas, que si quereis ya explicare pero es un coñazo enooooooooooooooooooooorme que seleccionan el chip a leer, además dicen si es de entrada o salida o sea leyendo o escribiendo (multiplicar x2 las cifras de antes), entonces la cache tiene la ventaja de que está todo en un chip y no tenemos que buscar entre integrados, no se si me explico...
En cuanto a la arquitectura, en realidad no se basa ninguna en una, si no que se comportan es como por ejemplo ir retrasando historia, el ordenador viene de la calculadora, la calculadora de ua makina de calculo, hasta que al final lleguemos al ábaco y comparemos ordenado con abaco, se aprecen en que se basan en métodos númericos pero es irrisorio buscar comapracion, pues esto es parecido, solo que como no esta tna extendido la teoria de arquitecturas se asemeja con CISC y RISC.

LoRHT lo de los superconductores te lo comento luego que ahroa me tengo que ir :D

Ala si alguien tiene insomnio ke lea esto, no falla, quedará roke en 2 minutos :D

BEDI

Ami me interesa mucho leer estas cosas, asi que si los que teneis conocimientos estais dispuestos a escribir más... sera bienvenido :)

saludos

S

m0rG eso de la caché es relativo, veamos, existen dos tipos de arquitecturas como he nombrado antes de pasada y que ya expliqué en otro post extensamente, dependiendo de la arquitectura la cache es mas o menos util, por ejemplo AMD trabaja con muchos datos pequeños rapidamente, digamos que como una autopista de muchos carriles de ida y vuelta, por lo que lo que necesita es una comunicación rápida con sus componentes de ahí que el AMD 64 tenga la controladora de memoria integrada, y esto suponga un incremento de rendimiento considerable.Sin embargo en INTEL funciona de otra forma, su arquitectura lo que hace es cojer procesos muy grandes, extemadamente grandes comparado con AMD y procesarlos, en este caso cuanta más caché mas beneficiosa sería, ya que el acceso de cache no es como un disco duro, si no como memoria, de la forma FIFO (creo que es esa o LIFO), FIFO es en inglés (first in first out) es decir el primer dato que entra es el primero que sale porque está así estructurada la memoria. LIFO es igual pero al revés. Que quiero decir con esto, pues que mientras la cache sea en formato integrado en el núcleo del procesador no representará mayor problema de lentitud o si lo presentara ser vería equilibrado por la propia arquitectura INTEL. Y... ¿En que beneficia todo esto?, pues en que al hacer el procesador procesos cuanto mas gordos posibles, cuanto mas grande la caché, menos espera tendría que tener el procesador entre proceso y proceso, ya que aunque el otro estubiera todavía enviandose la caché sería tan jodidamente grande que le daría igual y seguiría trabajando y cojiendo procesos.

No tengo claro de qué hablas. Si hablas del funcionamiento interno del procesador, no sé por qué mencionas el controlador de memoria, si hablas de los accesos a memoria, te diré que AMD e Intel comparten un juego de instrucciones (que son las que definen el tipo de arquitectura al fin y al cabo: CISC) que realiza exactamente lo mismo en un procesador y otro, y que ambos tienen un bus de 64 bits (que yo recuerde) con la memoria.
Parece que intentas decir que "internamente" AMD "es RISC", pero los P4 también lo son; ambos realizan una decodificación de instrucciones en instrucciones internas.

Respecto a la memoria, creo que tienes un cacao mental de aupa. Las estructuras LIFO y FIFO se crean a nivel de software, "de programación", sobre lo que es la memoria (o disco). Los procesadores y las memorias no saben nada de eso: un procesador genera una dirección virtual de X bits (un número de una casilla, vamos), el controlador de memoria lo traduce a una dirección real. En caso de no existir la real, el controlador de memoria avisa al SO para que haga lo oportuno. Punto. En las estructuras FIFO y LIFO "no hay direcciones", hay sitios prefijados donde debes escribir o leer, y así no funciona la memoria (sea la DRAM, SDRAM o SRAM).

También debo destacar que los accesos a la caché se hacen de forma comparativa (creo que se llamaba así). El procesador genera una dirección, el controlador de la caché la toma y comprueba si el contenido de esa dirección está ya almacenado en ella. En caso positivo, se toma de la cache, en caso negativo, de memoria, en caso negativo, de swap.
Resumiendo, la caché no es direccionable, ya que almacena en posiciones arbitrarias contenidos de memoria arbitrarios de direcciones de memoria arbitrarias. La memoria sí es direccionable, así como los discos duros, que sí, son distintos, pero ambos son dispositivos de bloques (de hecho puedes "tener RAM en disco" (swap), y "disco en memoria" (ramdisk)).

32Mb por chip, de donde---> 32x1024 = 32768 Kb x1024=33 554432 bytes x 8 = 268435456 patillas + alimentación + masa cada chip tendría = 268435458 además si no usaramos metodos de seleccion de chip, tendria cada modulo 4294967328 contactos!!!!

Repasa las mates. Si quieres direccionar a nivel de bit, necesitas log2 32MB/Chip16Chips1024KB/MB1024B/KB8Bit/B de dirección. Eso son (casualmente) 32 bits.

Pa flipar , por ello mismo se usan sistemas de ordenamiento, lo que no te puedo decir si son FIFO o LIFO,

Volvemos a lo mismo.

En cuanto a arquitecturas no tiene nada que ver el FIFO o el LIFO co la arquitectura, una cosa es como trata los datos para su proceso y otra su almacenamiento que son cuiestiones totalmente diferentes.

Estoy empezando a pensar que confundes FIFO y LIFO con little-endian y big-endian.

Las interrupciones, efectivamente son direcciones de memoria, porque claro, tu le tienes que decir donde está lo que quieres buscar, lo que pasa es que esto que estoy explicando es por chip, existe una especie de sistemas, que si quereis ya explicare pero es un coñazo enooooooooooooooooooooorme que seleccionan el chip a leer, además dicen si es de entrada o salida o sea leyendo o escribiendo (multiplicar x2 las cifras de antes), entonces la cache tiene la ventaja de que está todo en un chip y no tenemos que buscar entre integrados, no se si me explico...

Las interrupciones es un vectores de bits que provocan los periféricos y el propio sistema. Funciones: atender periféricos (discos, nics, gráficas...), solicitar funciones del SO (interrupciones generadas por software) y multitarea (cada vez que surje una interrupción el SO entra en ejecución, lo que evita que un proceso acapare todos los recursos).

m0rG

#44
Ya sé que no se puede implementar una patilla por cada celdilla de la RAM (sea del tipo que sea) ya que para algo existen los controladores de memoria,registros etc y tampoco me refería a eso.Habrá sido un malentendido...

Soy_HeatoN , entonces los procesadores actuales PC (AMD y P4) son CISC ya que tienen que decodificar instrucciones complejas ¿no? (siento ser pesado pero me intriga)

S

Soy_HeatoN , entonces los procesadores actuales PC (AMD y P4) son CISC ya que tienen que decodificar instrucciones complejas ¿no? (siento ser pesado pero me intriga)

Sí, son CISC desde el momento en que se soporte direccionamiento indirecto además de las operaciones dedicadas al acceso a memoria.

LoRTH

Ya que estamos podriais explicar todo eso de CISC, LIFO, FIFO ...

Richard_Z

Buenas.

Pues a mi los precios de las gráficas no me parecen para nada caras.

A ver, si nos paramos a pensar, una gráfica de última generación cuesta al rededor de 500 €.

Pero una gráfica no és sólo el proceasor, también lleva una placa base, y una memoria ram.

Es decir, cuando compramos una gráfica compramos el PCB entero, no sólo el proceasor.

6800Ultra:

-GPU 6800Ultra.
-Placa base para
-Memoria ram ultra rápida GDDR3

=500 €

Ahora si lo comparamos con lo último del mercado en cuanto a plataformas de sistema tenemos:

PC Amd athlon64 3500+

Procesador: 350 €
Placa: 150 €
RAM: 150 € (1 Gb)

=650 €

Es que tenemos la "mala" costumbre de comparar precios de Tarjetas gráficas con procesadores, cuando se deberia comparar Tarjetas gráficas con sistema completo (CPU+Placa + RAM).

Pq una tarjeta gráfica no es sólo un procesador, sinó que es otra plataforma. Es un conjunto específico para gráficos, pero que lleva RAM, placa base y procesador.

No se si ha quedado claro.

Saludos;

SupremSobiet

Weno, yo de informatica se lo justo, ya que soy medico, pero ahora que se ha tratado el tema del ADN y tal me gustaria dar ciertas ideas y puntualizaciones.

Cierto es que la cantidad de informacion del ADN es INMENSA, tanto como para soportar la carga informativa codificada para generar todas las formas de vida del planeta. Pero codificar algo bajo la tecnologia del ADN significa un complejisimo proceso, donde las enzimas son imprescindibles.

Estas encimas (las que actualmente se usan en Biotecnologia, son de bacterias) como la ECO, son tremendamente labiles al calor, ya que son proteinas, si bien es cierto que se han encontrado algunas procedentes de bacterias termifilas (que viven en ambientes de hasta 120cº y tal vez mas)

El problema que mas me viene a la cabez de un ordenador de ADn es como mantener el aparataje enzimatico por parte de un usuario medio. Es decir : ¿Podra llegarse ha hacer un sistema estable como para tenerlos en nuestras casas?

Y otra cuestion es la tremenda sensibilidad del ADN a la vida. Es decir, cualkier organismo vivo (microorganismos inclusives) es tremendamente sensibles al ADN, en el sentido de ke tienden a destruir este, o a fraccionarlo para su propio uso, (de aki la kapacidad de las bacterias para tomar la informacion de una a otra, y pasar capacidades de resistencia a farmacos, etc) ¿Podria entonces "enfermar Nuestro ordenador"? (realmente si podria infectarse)
Deberian pues el micropocesador que estar completamente aislado de cualkier minima kontaminacion, Y creedme ke esto es complikado.

Weno ke me explallo demasiado

un saludo

P.D: en realidad en los acidos nucleicos existen 5 bases Adenina, Guanina, Citosina, Timina, y Uracilo(este ultimo es caracteristico de ARN y no del ADN)

S

CISC: Complex Instruction Set Computer. Computador con juego de instrucciones extenso.

Muchas instrucciones.
Pocos registros.
Habitualmente 2 operandos.

RISC: Reduced Instruction Set Computer. Computador con juego de instrucciones reducido.

Pocas instrucciones.
Muchos registros.
Habitualmente 3 operandos.

VLIW: Very Long Instruction Word. Palabra de instruccion muy grande.

Este tipo de arquitectura está preparada para realizar un paralelismo a nivel de instrucción muy eficiente, ya que deja el trabajo de optimizar el código para su proceso paralelo al compilador. En general descienden de RISC, pero por ejemplo el Transmeta Crusoe ejecuta instrucciones x86 e internamente es VLIW.

Curiosamente las arquitecturas CISC sólo permanecen en los PC (quizá algo más, pero vamos, nada).

LIFO: Estructura de datos en la que el último elemento que entra es el primero que sale. Se le llama pila (por razones obvias)
FIFO: El primero que entra es el primero que sale. Se le llama cola.

kogollo

Respeto a los nuevos materiales. Hace poco leí un artículo que hablaba de las excelentes cualidades del diamante para crear microprocesadores y así poder saltar las dificultades de construcción con el silicio.
El diamante es muy caro, i habían conseguido crear un material muy parecido al diamante( estructuralmente casi idéntico) pero de bajo coste donde se podrán construir los nuevos microprocesadores.

PD el caché cierta capacidad augmenta el rendimiento, pero cuando esta se sobrepasa, el tiempo de acceso agumenta con la consiguiente perdida de rendimiento.

m0rG

Añadir un par de cosillas a lo dicho por Soy_HeatoN

CISC:Se utilizan instrucciones complejas de longitud variable que deben ser decodificadas en otras más sencillas que puedan ser entendidas por el micro.El uso de estas instrucciones complejas implica que se tadarán varios ciclos en completarse.Se dice que los CISC son Memory-to-memory también.

RISC:Se usan instrucciones simples que pueden ser ejecutadas en un sólo ciclo de reloj.Esto implica que para finalizar la misma tarea que en un CISC se necesitan varias de estas instrucciones reducidas.Además este tipo de instrucciones son más cercanas al lenguaje máquina que las CISC.Se dice que es un sistema register-to-register.

S

Lo de que hay un máximo a partir del cual más caché reduce el rendimiento es cierto a veces. Está claro que para desktop, y específicamente para juegos, que habitualmente corren en un único hilo, es cierto, y se sitúa de los 512KB a 1MB. Pero en servidores, concretamente en sistemas con carga alta (muchos procesos en ejecución, mucho uso de memoria, independientemente del uso de CPU) el límite para que bajase el rendimiento se puede situar perfectamente en el orden de decenas y centenas de MB.

El rendimiento del ordenador no depende tanto del tamaño de la caché como del uso que se le dé a ésta.

zKoRp

Soy_Heaton, comentarte que más bien se parece la arquitectura actual a RISC, por eso no me he atrevido a decantarme del todo, aunque INTEL de de un aire a CISC, para que mas o menos epxlicarme, la forma de trabajar actual se parece mas bien a RISC.

Respecto a LIFO y FIFO, no se programas desde Software, te lo digo porque yo diseño circuitos y tengo que estar con esa basura (porque es una basura que odio) constantemente. No funciona así la memoria a grandes rasgos, ya que tu metes una dirección y la saca, pero internamente, si que es así. Yo como electronico no tengo ni idea de programar y el diseño de memorias de circuitos (memorias RAM) se hace así. Auqnue efectivamente se usen direcciones de memoria el funcionamiento interno es así, lo que no se decirte es si es una cosa u otra.

No he mezclado arquitectura con memoria, he intentado seprarlos ya que venían de dos pregunas diferentes.

Me parece que al intentar poenrlo sencillo me he patinado en algo, pero en esos temas, tengo el libro aquí delante que me has hecho dudar :P (no me joas que me examino el 7 de Sept y me traumatizas) y efectivamente mas o menos es como había explicado, logicamente las direccciones de memoria no son como numeros de telefonos al que llamas y te contesta si hay bit o no hay, pero bueno para explicarlo el ejemplo creo que valía ¿no? Si no copiaré literal de mi libro de teoría y sus giñais que eso si que es soponifero :P :P :P :P

Salu2

S

La memoria en la mayoría de las arquitecturas se trata como una matriz. En máquinas de 32bit, 16bit para filas y 16bit para columnas. La propia señal de la dirección activa determinados hilos en la memoria, que van al bus de datos.
Si estudias electrónica probablemente estés viendo circuitos con biestables, y moviendo bits entre ellos (padding, rolling...) para crear FIFOs y LIFOs, pero te puedo asegurar que así no funciona la DRAM actual (ni la SRAM). Ahora mismo no tengo el tema muy fresco, pero en cuanto pueda lo discutimos.

no son como numeros de telefonos al que llamas y te contesta si hay bit o no hay,

Precisamente así funciona la DRAM, pero con grupos de bits (usualmente 32 o 64).

zKoRp

Encantado, ya que igual estoy equivocado (nadie es perfecto), pero vamos... la idea de arquitectura que yo tenía ea que siempre había sido CISC hasta las nuevas movidas de AMD con el FSB de coble cara y el HT de INTEL. De hecho si leemos la definición pura y dura de CISC y RISC esto induce a pensar.

PAra que vayamos discutiendo aquí os dejo un poco de documentación sobre arquitecturas, aunque no os quedéis con esta que lo mejor viene abajo.

http://www.azc.uam.mx/publicaciones/enlinea2/num1/1-2.htm (Corrobora lo mio)

http://www.error500.net/garbagecollector/archives/categorias/apuntes/microprocesadores_risc_y_cisc.php (corrobora lo de es HEATON)

La memoria:

http://www.mailxmail.com/curso/informatica/arquitecturaordenadores/capitulo3.htm

Efectivamente se meten direcciones con lo que yo llamo multiplexores pero sacan la información en formato LIFO o FIFO.
Respecto a la memoria tenemos los dos un poco de razón, digamos que si que se consulta con direciones pero a nivel mas bajo la informacion sale como FIFO o LIFO, si lot ratas en conjunto es como tu dices, si lo tratas bit a bit es como había explicado.

Sobre RISC: http://www.hardware12v.com/diccionario/r.php

PEGO TEXTO:

RISC (Reduced Instruction Set Computer)
Arquitectura de microprocesador basado en la dotación de simples instrucciones para capacitarle de la posibilidad de ejecutar un mayor número de MIPS, con la consiguiente pérdida de tiempo al ejecutar un conjunto de instrucciones largas y dificultosas, aunque se consigue mayor rendimiento que con CISC. Ideada por John Cocke del equipo de Desarrollo de IBM en Yorktown, quien se dió cuenta que un 20% de las instrucciones de un microprocesador realizaba el 80% del trabajo, y se incorporó por primera vez en el IBM PC/XT en 1980. El término fué originado por David Patterson, profesor de la Universidad de California en Berkeley y fué usado en Sun Microsystems para diseñar sus microporcesadores SPARC. Hoy en día empresas como AMD usan ésta arquitectura para crear sus CPU's.

Sobre CISC:

CISC (Complex Instruction Set Computer o computing)
Arquitectura basada en la dotación de amplias y variadas instrucciones al microprocesador para ejecutar un mayor número de aplicaciones buscando ser efectivos en cuanto a la cantidad en relación al tiempo empleado. Ejemplos de ello son los microprocesadores Intel Pentium. Luego se descubrió que el tiempo de ejecución se acortaba dotando al microprocesador con las instrucciones más usadas y dándoles la capacidad a ellos mismos de subdividir alguna instrucción CISC, se denomina arquitectura RISC.

Juguemos a 64 bits:

http://www.duiops.net/hardware/articulo/64bitscpu.htm

INTEL ya saco el XEON con tecología RISC, lo que pasa que la base en que está basada sigue siendo CISC es una especie de chapuza :D

AMD a partir del K6 ya usa RISC e INTEL a partir del PII yo creia que era desde el K7, pero bueno :D

http://www.noticias3d.com/articulos/200108/amd/6.asp

Mmmm, alguno ha dudado de lo que he puesto :( vaya chasco, bueno espero que leyendo esto comprendan mas o menos lo que no he sabiado transmitirles y luego puedan traducir la parrafada de textos anteriores :D

Salu2

ach3chin0

IO creo q estamos ya en la Era Post-RISC y Post-CISC..., con todo lo que conlleva...

Creeis de veras que esto NO es demasiado abstracto como para stickearlo ?¿

Es que hay MUCHOS stickys ya....

SI os parece interesante se sube en un santiamén...

H

m0rG

H yo creo que es uno de los posts más interesantes que han pasado por HW últimamente.Yo lo haría fijo,pero tú decides ;) ...