Di Cyrix abbiamo tracciato una breve storia nell'articolo dedicato ad AMD intitolato “Storia di AMD nell'era di Jerry Sanders”, ma per motivi di spazio non abbiamo potuto analizzare più nel dettaglio il perché la casa americana abbia chiuso definitivamente, con la cessione a VIA, o cosa avesse in serbo nel caso avesse continuato a vivere. A tali questioni andremo a rispondere adesso, e sono certo che quello scopriremo sarà per voi lettori una piacevole sorpresa, ricca di spunti interessanti.
Prima di addentrarci nell'analizzare la situazione in cui versava Cyrix, ed i progetti in corso negli ultimi anni d'esistenza, sarà meglio descrivere con qualche riga il fondatore e CEO della società, Jerry Rogers, un uomo alquanto particolare che ha trasmesso i propri tratti alla stessa società da lui guidata, almeno fino alla definitiva chiusura.
Magnate texano, e come tutti i texani testa dura e animo forte, decise di dar battaglia nel 1988 ad Intel fondando la Cyrix Corporation. Azienda piccola, ma dotata di grandi personalità. Rogers inizialmente rigettò l'idea di assumere un team numeroso di ingegneri, privilegiando un piccolo team di élite, composto da appena 30 persone. Citando il Joker de “Il Cavaliere Oscuro”: “Ora, la nostra organizzazione è piccola, ma ha un alto potenziale di … di aggressività ed espansione”.
Cyrix, grazie ad una politica altamente innovatrice, che passò inizialmente comunque dalla sempreverde tecnica del Reverse Engineering, sfornò prodotti decisamente competitivi nel rapporto prezzo/prestazioni, tanto che Intel cercò di sbatterla fuori dal mercato intentandole causa, tra il 1991 e il 1992.
Da questa trascrizione di una fase del processo, in cui Rogers viene interpellato, si può capire come il magnate texano sia un uomo che non conosce i giri di parole:
Coursey: You're accusing Intel of using the threat of a court battle to stop potential competitors.
Rogers: And I would assume it has been pretty effective. I can't imagine any venture capital firm willing to invest in a start-up company that wanted to go compete against Intel because Intel would probably not allow the new company to get to the level of revenue and market acceptance that we did before it sued. As a matter of fact, on our microprocessor Intel sued us before we ever introduced the product. They sued us on a rumor.
InfoWorld, Agosto 1992
La causa si concluse a favore di Cyrix, e questa riuscì a crescere abbastanza, ma non a sufficienza, fino al 1997, quando fu acquisita dalla National Semiconductor a causa degli eccessivi debiti accumulati.
Nel novembre del 1997 Rogers fu costretto a cedere Cyrix, ormai oberata dai debiti, alla National Semiconductor (NS), azienda statunitense con sede in California, a Santa Clara più precisamente.
NS con questa acquisizione sperava di poter entrare con un certo successo nel mercato delle CPU consumer: Cyrix era un marchio apprezzato tra gli appassionati e gli Enthusiast, grazie a CPU molto convenienti ma al tempo stesso prestanti. Cyrix fallì, principalmente, perché Rogers non riuscì mai a stipulare un contratto con un grande OEM, come al contrario fece AMD, sia per demeriti propri, sia per la cattiva pubblicità subita dai fiancheggiatori di Intel. Questo deficit costò alla casa un sicuro e continuo ritorno economico da poter reinvestire.
Questi problemi, almeno fino al fatidico novembre, non fermarono Rogers dallo spronare i propri ingegneri, arrivati ad essere oltre 250, per creare la CPU definitiva per il mercato consumer: un processore per la fascia media, medio-alta, prestante ed allo stesso tempo innovativo. Qualcosa che sul mercato nessuno avrebbe avuto per molto tempo, anche nel caso Intel e AMD avessero deciso di copiarlo.
MediaGX, la piccola grande rivoluzione
Tale desiderio si scontrava, oltre che con la penuria di fondi, anche con la mancanza di fonderie proprie. Intel ne aveva, AMD ne aveva, Cyrix no. Realizzare una CPU di tale portata avrebbe richiesto molto più impegno di quanto non sarebbe stato necessario se Cyrix avesse avuto delle fonderie di proprietà.
Nel 1997 AMD poteva produrre a 250nm, e nel 1999 avrebbe cominciato a produrre a 180nm. Intel seguì circa la stessa tempistica, arrivando un po' più in ritardo con i 180nm. Cyrix, al contrario, doveva rivolgersi a fonderie esterne, Texas Instruments e ST Microelectronics principalmente, le quali arrivarono a tali nodi con notevole ritardo. Cyrix, quindi, non lottava solamente contro difficoltà economiche, ma anche contro difficoltà produttive.
Nonostante tutto lo studio di questa rivoluzionaria CPU continuò fino al novembre del 1999, sotto la supervisione di National Semiconductor, la quale conservò anche il marchio di Cyrix, ormai famoso tra il pubblico più smaliziato.
Il progetto Jalapeno di Cyrix nacque circa nello stesso periodo in cui AMD cominciò a sviluppare SledgeHammer, quello che sarebbe diventato l'Athlon64 e le CPU per server Opteron. Entrambi i CEO, Sanders e Rogers, compresero che per battere Intel si sarebbe dovuto stupire il mercato. Intel non era da rincorrere, era da superare.
Cyrix, al tempo, era la dominatrice della fascia ultra bassa delle CPU con i processori 6x86MX, grazie ad un prezzo di commercializzazione inferiore ai 200 dollari. Per fare un confronto, a metà del 1997, un Cyrix 6x86MX-PR200 costava 190 dollari, mentre un Pentium MMX 233 MHz ne costava 594, ed il Pentium II 233 MHz 636 (prezzi per lotti di 1000 unità).
Rogers, insieme ai propri ingegneri, decise di puntare sulla fascia media per costruirsi il proprio zoccolo duro di utenza, quella che garantiva il migliore rapporto margini utili/pezzi venduti: quello delle macchine da ufficio, e per utilizzo SOHO (Small Office – Home Office) in generale.
Cyrix ormai era padrona delle fasce più umili di mercato, poco remunerative ma che offrivano comunque una buona visibilità dal punto di vista della pubblicità. Tale successo spinse Rogers a sperimentare una soluzione molto particolare per una CPU x86, la CPU (ma forse è riduttivo chiamarla così) MediaGX.
Articolo di Black Enterprise, Aprile 1999
Tale CPU, basata sul vecchio Core 5x86 e utilizzante lo Socket 7, integrava una GPU 2D (XpressGRAPHICS) e una scheda audio 16 bit (XpressAUDIO) compatibile con le allora molto diffuse Sound Blaster 16. Poteva venire utilizzata su tutte le schede madri Socket 7, previo aggiornamento del Bios, ma per sfruttarne le caratteristiche multimediali si sarebbe dovuto utilizzare mainboard apposite, equipaggiate con il SouthBridge Cx5530, sviluppato dalla stessa Cyrix.
Non necessitando di un NorthBridge, il MediaGX possedeva un'altra caratteristica davvero avveniristica: il controller delle SDRAM integrato (XpressRAM).
Questa futuristica CPU fu la prima a permettere la creazione, all'inizio del 1997, di Personal Computer sotto i 1.000 dollari. Destinata ad un impiego office, fece comunque da apripista per un'ulteriore abbassamento dei prezzi e per la discesa dal piedistallo di Intel: la casa di Santa Clara dovette commercializzare le CPU Celeron per evitare che Cyrix ed AMD le mangiassero a velocità assurdamente elevata il proprio Market Share.
Le CPU 6x86 e MediaGX, comunque, non salvarono Cyrix dalla vendita a National Semiconductor. La suicida politica dei prezzi erose le poche riserve di capitali, e la speranza di vedere un grosso OEM bussare alla porta di Rogers non si avverò mai.
Lo sviluppo della rivoluzionaria CPU, in quel momento allo studio, passò sotto l'egida di National Semiconductor.
Quando furono buttate giù le caratteristiche di Jalapeno, Rogers e suoi ingegneri si fecero probabilmente questa domanda: “Cosa avrebbe dovuto avere tale CPU per ritagliarsi una buona fetta di mercato?”. Quello che venne elaborato fu veramente qualcosa fuori dagli schemi, per l'epoca.
Jalapeno, così fu chiamata la nuova architettura, prima di tutto avrebbe dovuto mantenere lo Socket ZIF. La cartuccia introdotta da Intel era eccessivamente costosa per il mercato a cui si sarebbe rivolto Jalapeno, ed inoltre sarebbe stata inutile per il pubblico a cui ambiva: gli Enthusiast e gli uffici. I primi sarebbero stati in grado di gestire CPU con i classici pin, i PC dei secondi sarebbero stati aggiornati, nel caso, da tecnici specializzati.
La stessa Intel venne in aiuto di Cyrix per questo punto. Nel 1997 Cyrix vinse una causa contro Intel, quest'ultima accusata di aver utilizzato il Reverse Engeneering sulle CPU della casa texana. Tale vittoria risultò in uno scambio di brevetti tra le due società, ed incluse l'utilizzo comune dei Socket sviluppati. Cyrix avrebbe potuto utilizzare lo Socket 370 con un esborso minimo in royalities, senza doverne svilupparne uno proprio.
Proseguendo, la base del nuovo Core sarebbe stato l'MII in sviluppo, così da semplificare al massimo i lavori. L'unica modifica di rilievo sarebbe stata l'integrazione della Cache L2 on Die. Un grande traguardo per Cyrix, che avrebbe permesso alla CPU un notevole Boost prestazionale. I principali concorrenti dell'epoca, il Pentium II di Intel, ed il futuro K7 di AMD, avevano la Cache L2 esterna al Die.
Ma il piatto forte di Jalapeno sarebbe stata l'integrazione On Die di una GPU 3D all'ultimo grido!
Processor Architecture: From Dataflow to Superscalar and Beyond (Di Jurij Šilc,Borut Robič,Theo Ungerer), 1999
Lo studio della CPU era appena agli inizi, quando nel novembre del 1997 la società fu acquisita da National Semiconductor. Dopo aver visionato i progetti di Jalapeno, NS decise di proseguirne lo studio. Le potenzialità di mercato si prospettavano enormi.
Tra la fine del 1998 e l'inizio del 1999 cominciarono ad essere divulgate le prime informazioni ufficiali su Jalapeno. Tra le testate anglosassoni gli speciali in proposito praticamente non si contano. Le aspettative attorno a questa CPU erano altissime.
Come già scritto, il Core della CPU avrebbe avuto quale base l'MII del 6x86MII, che tanto successo stava avendo sul mercato nel 1998, grazie anche ad un prezzo di commercializzazione molto aggressivo (sotto i 100 dollari). Cyrix prima, e NS poi, abbracciarono la politica di vendere le proprie CPU a quei prezzi cui Intel non si sarebbe mai avvicinata. Per la casa di Santa Clara vendere le CPU sotto i 100 dollari era pura eresia, per Cyrix e NS il price target era di 60 dollari. Due filosofie diverse. Anche per questo fu sviluppato Jalapeno.
Dopo aver testato la possibilità di attuazione del progetto tramite le CPU MediaGX, basate su Core 5x86, grazie ad hardware dedicato On Die (XpressGRAPHICS, XpressAUDIO e XpressRAM), lo sviluppo di Jalapeno subì una velocizzazione.
Jalapeno sarebbe dovuto essere qualcosa non soltanto di migliore, ma addirittura un qualcosa di estremo. Avrebbe avuto una GPU capace di accelerare grafica tridimensionale, di decodificare via hardware i flussi MPEG-2, e di garantire tutte quelle feature richieste dai videogiocatori dell'epoca: alpha blending, anisotropic filtering, anti-aliasing e molto altro. Parlando di numeri, secondo gli ingegneri della casa texana, la GPU integrata sarebbe stata in grado di generare fino a 3 milioni di poligoni al secondo, poco meno della potenza generata da una Voodoo 3 2000 (prezzo di 130 dollari), all'epoca tra le migliori schede per videogiocatori nel rapporto prezzo/prestazioni.
Si presentava però un problema: come ottenere tali prestazioni?
I tecnici decisero di utilizzare soluzioni decisamente avveneristiche. La Cache L2 di 256KB sarebbe stata integrata On Die, e questa avrebbe viaggiato alla stessa frequenza della CPU. Per massimizzare questa caratteristica Jalapeno avrebbe avuto una frequenza base di 600 Mhz, con picchi per le versioni più costose di 1GHz. Non solo, la Cache L2 sarebbe stata utilizzata anche per stockarvi le texture dei giochi, e lo stesso sarebbe accaduto per la memoria di sistema. Questo avrebbe permesso di utilizzare un solo frame buffer condiviso, con un discreto aumento delle prestazioni.
Consci che le vecchie Sdram non avrebbero potuto garantire una bandwidth sufficiente per un utilizzo videoludico, seppure di basso livello, i tecnici di Cyrix decisero di utilizzare una nuova memoria dalle latenze bassissime, la RDRAM di Rambus. Qualcuno storcerà il naso per questa scelta, ricordando i prezzi di tali memorie, ma si deve considerare il quadro nel suo insieme. NS e Rambus formularono un accordo di massima secondo il quale se la prima fosse riuscita a convincere qualche OEM a produrre PC preassemblati con Jalapeno, Rambus avrebbe ceduto le royalties delle proprie memorie ad un prezzo di favore, conoscendo il mercato di riferimento. E questo prezzo di favore si sarebbe esteso anche nel mercato Retail. Comunque, non essendo accaduto nulla di tutto ciò, non possiamo immaginare cosa avessero studiato NS e Rambus per evitare l'utilizzo di tali memorie sulle schede madri Intel.
Le RDRAM si resero necessarie per limitare il problema della latenza e della banda, caratteristiche importantissime per le memorie delle schede video. Mentre le DRAM PC-133 avevano una latenza teorica di 82.5 ns e una banda teorica di 1.064 GB/s, le RDRAM PC-800 possedevano una latenza di 45 ns e una banda di 1,6GB/s. Il tutto, abbinato al Memory Controller On Die (XpressRAM 2), avrebbe permesso a Jalapeno prestazioni di buon livello. Considerando che le RDRAM lavorano in Dual Channel, la banda sarebbe stata di ben 3,2 GB/s!
Estratto di un'intervista a Kevin McDonough, CEO di Cyrix tra il 1998 e il 1999. MaximumPC, Dicembre 1998.
All'inizio del 1999, poiché lo sviluppo cominciava a prolungarsi eccessivamente, vista la portata del progetto, fu deciso di cambiare il Core utilizzato, passando dall'MII all'MIII (Nome in codice “Chayenne”), a quel tempo in sviluppo. Intel e AMD con la presentazione, rispettivamente, del Pentium III e del K7 stavano prendendo il largo dal punto di vista delle prestazioni x86 pure.
Il Core MIII, seppure fosse inferiore al K7, nel 1999 la CPU più veloce, sarebbe stato comunque un ottimo Core x86. Avrebbe posseduto due ALU (il K7 ne aveva tre), sarebbe stato come i concorrenti Out-of-Order, avrebbe avuto un'architettura Super-Pipelined di 11 stadi (K7 ne aveva 10), così da scalare ottimamente in frequenza, oltre il gigahertz, ed avrebbe integrato le istruzioni più utilizzate, le MMX e le 3DNow!. Anche la scheda audio integrata probabilmente sarebbe stata migliorata, passando dai 16 Bit ai 24 Bit.
Il Core MIII sarebbe stato utilizzato per equipaggiare anche una CPU decisamente più classica, priva del NorthBridge integrato. Questa CPU prese il nome di Gobi, e sarà commercializzata come 6x86MIII, o Via C3.
In Cyrix, consci che Jalapeno avrebbe potuto subire dei ritardi, approntarono una CPU tradizionale, su Socket 7 (Nome in codice "Jedi") e 370, ma capace di sfruttare i chipset dedicati ai processori Intel (questo sempre grazie alla sentenza del 1997). In questo modo i costi di sviluppo di Jalapeno si sarebbero potuti, almeno in parte, ammortizzare.
L'MIII utilizzato su Gobi non sarebbe comunque stato completo. Gobi si può dire utilizzasse un MII+.
Piano delle uscite, InfoWorld, Novembre 1998
Parlando delle caratteristiche tecniche, lo sviluppo di Gobi procedette su due direttive. Da una parte una versione per Socket 7, da una parte una versione per Socket 370. Questa decisione fu presa perché Gobi sarebbe potuto essere un'ottima CPU da upgrade, in quanto di PC basati su Socket 7, nel 1998, gli Uffici erano ancora pieni. Per non parlare dei videogiocatori squattrinati.
Gobi, in entrambe le versioni, sarebbe stato equipaggiato con una Cache L2 da 256KB, e come per il K6-III, la cache L2 delle schede madri Socket 7 sarebbe passata ad essere una Cache L3. Le frequenze raggiunte da Gobi sarebbero dovute essere comprese in un intervallo tra i 300 e i 500 Mhz. Tipiche di una CPU di fascia bassa.
Per minimizzare i costi di produzione, Cyrix scelse di produrre tali CPU con il processo produttivo a 180nm, finalmente disponibile presso la FAB di Santa Clara di National Semiconductor. Infine anche Cyrix ebbe delle proprie fonderie, ma troppo tardi.
Nel 1999 National Semiconductor decise di vendere Cyrix a VIA a causa degli eccessivi costi rapportati agli introiti. Jalapeno si stava rivelando un pozzo senza fondo, e le ingenti vendite delle CPU 6x86MII coprivano in minima parte tali uscite, nonostante un Market Share da record, pari all'11%, a causa dei bassi margini utili per pezzo.
La vendita a VIA decretò la fine dello sviluppo di Jalapeno. La casa taiwanese non era interessata a produrre CPU rivoluzionarie, ma CPU a basso costo capaci di interessare anche il mercato Embedded. I tempi del Calcolo Eterogeneo sono ancora lontani. Non è un caso che lasciò a NS i brevetti delle CPU MediaGX.
Questa decisione spinse la maggior parte dei 400 ingegneri che lavoravano per Cyrix a cercare altri lidi, portando con sé la propria esperienza. Uno tra i tanti fu Richard E. Perego, il quale si occupava della gestione della memoria per le GPU integrate e del Memory Controller in Jalapeno, e che poi ha deciso di brevettare le sue intuizioni. I suoi brevetti furono utilizzati in seguito sulla Playstation 3 da Rambus e Sony. Cyrix, possiamo dirlo, aveva affettivamente un team di sviluppo di altissimo livello.
MaximumPC, Settembre 1999. Cyrix è di VIA dal Giugno dello stesso anno.
Se i processori Jalapeno furono abbandonati, lo sviluppo di Gobi fu mantenuto. In seguito VIA lo avrebbe commercializzato come Cyrix 6x86MIII, e quindi come Via C3. Il marchio Cyrix fu messo definitivamente da parte.
Gobi fu poi utilizzato come base per i futuri processori VIA, ma sempre con poche modifiche. Si può dire che gli attuali Esther e Isaiah non siano altro che dei Gobi rimodernati. Il Core MIII vive ancora dopo oltre 15 anni dall'inizio dello sviluppo.
I processori MediaGX furono invece acquistati da AMD, nel 2003, ed ancora oggi vengono prodotti con il nome di Geode per sistemi Embedded, utilizzando però nodi produttivi sempre più avanzati per limitarne i consumi. Tali processori probabilmente furono la miccia che accese nella mente degli ingegneri AMD l'idea per Fusion. Dopo tale acquisizione nel 2006 AMD comprò ATi. L'azienda canadese avrebbe sopperito alle basse, se non nulle, conoscenze sulle GPU di AMD. Sempre nel 2006 fu annunciato il progetto Fusion. ATi non fu acquisita per realizzare i chipset in casa, quello fu un surplus, ma per riuscire ad avere una GPU decente da integrare nelle proprie CPU. Senza essere supponenti, possiamo affermare che in Fusion ci sia molto di Cyrix.
La storia dell'informatica come la conosciamo oggi sarebbe potuta essere molto diversa se Cyrix avesse commercializzato Jalapeno, una CPU per certi versi rivoluzionaria.
Avrebbe avuto un Memory Controller integrato circa quattro anni prima degli Athlon 64 di AMD. Avrebbe avuto una GPU 3D integrata circa 10 anni prima delle APU di AMD. Avrebbe avuto una scheda audio avanzata, caratteristica assente ancora oggi sulle CPU.
Lo stesso utilizzo della Cache L2 come Frame Buffer è in anticipo di 15 anni sulla eDram di Haswell.
News di EETImes su Jalapeno. Il citato Greg Grohoski, dopo l'acquisizione di Cyrix da parte di VIA, è entrato in SUN come Senior Director della divisione che si occupava delle CPU Sparc, ed ancora oggi ricopre quel ruolo in Oracle.
Cosa sarebbe accaduto se Jalapeno fosse stato alfine rilasciato? Per questa CPU si aspettava un prezzo di commercializzazione attorno ai 100 dollari, quindi si sarebbe potuto costruire un PC di discreta potenza, RDRAM escluse, con circa 300 dollari. Un prezzo all'epoca assurdamente basso!
Rogers, forse più di Sanders, era un visionario a cui interessava più il prodotto che il fare soldi con questo. E come tutti i visionari viene compreso solo dopo molto tempo. Intel, al contrario, non produce grandi innovazioni ma, come Apple, spesso si limita a proporre caratteristiche consolidate con il massimo affinamento.
Come AMD, anche Cyrix è servita agli utenti per poter acquistare CPU Intel a prezzo più basso. Senza Cyrix non conosceremmo i Celeron, e non potremmo acquistare le CPU della casa di Santa Clara a tali prezzi. Sfortunatamente Cyrix, nonostante i prezzi ridicolosamente bassi, non è stata capita dal grande pubblico ed oggi ci troviamo probabilmente tecnologicamente meno ricchi.
E voi, cari lettori, come avreste visto una CPU Jalapeno nel 2000? Come immaginate il mercato se tale CPU fosse stata effettivamente commercializzata? Se il team dietro a Jalapeno avesse potuto continuare il proprio lavoro, cosa sarebbe potuto saltare fuori di ancora più rivoluzionario?