close

Anmelden

Neues Passwort anfordern?

Anmeldung mit OpenID

hier klicken - Fehler: SSL-Proxy nicht konfiguriert!

EinbettenHerunterladen
Teststrategien
für Leiterplatten
HDI
Testgerechtes Design
Dienstleistung
von
Dr. Uwe Trier
Vorwort
Bei der Betrachtung der Entwicklung der vergangenen 20 Jahre kann festgestellt
werden, dass sich an bestimmten Tatsachen rund um den elektrischen Test
unbestückter Leiterplatten nicht viel geändert hat. Abgesehen vom Fingertest,
welcher in letzter Zeit stark an Bedeutung gewonnen hat, der jedoch nur für kleine
Serien Sinn macht, bietet nach wie vor nur der Nadelbettadapter einen akzeptablen
Durchsatz bei moderaten Grundkosten.
Fortschritte bei der Software und der Elektronik der Prüfrechner können nicht
darüber hinweg täuschen, dass der Mechanik weitgehend Grenzen gesetzt sind,
sollen die Kosten nicht in astronomische Höhen getrieben werden. Es mag sein,
dass dies der Grund dafür ist, dass die Entwicklung neuerer Testkonzepte dem
Technologiewandel bei der Leiterplattenfertigung hinterher hängt. Ob es schnelle
Erfolge im Bereich des berührungslosen Testens geben wird, muss abgewartet
werden. Bis auf Weiteres dürften der Durchsatz bzw. die Auflösung Probleme
verursachen, beruhen diese Prinzipien doch oft auf beweglichen Köpfen wie beim
Fingertest. Die Hersteller halten sich hier mit Informationen sehr bedeckt.
Die nächsten Jahre werden also dadurch geprägt sein, dass für die verfügbaren
Technologien sinnvolle Test- und Integrationsstrategien gesucht werden. Auch das
Design der Leiterplatte spielt hierbei eine zentrale Rolle, und wenn es Bereiche gibt,
für die der Spruch kleine Ursache, große Wirkung passt, dann gehört die LayoutEntwicklung dazu. Umso verwunderlicher ist es für den Dienstleister, dass er sich
immer wieder mit Problemen konfrontiert sieht, die bereits im Vorfeld durch etwas
Nachdenken hätten vermieden werden können. Die Ursachen hierfür sind entweder
mangelndes Interesse oder Unkenntnis. Aus diesem Grund enthält der Beitrag eine
kleine Einführung in den elektrischen Test unbestückter Leiterplatten, bevor auf die
daraus resultierenden Probleme und mögliche Vermeidungsstrategien eingegangen
wird.
Es werden aber nicht nur rein technische Notwendigkeiten, sondern auch "politische"
Aspekte aus der Sicht des Dienstleisters diskutiert. Viele der Argumente und die sich
daraus ergebenden personellen Konsequenzen können ohne Weiteres auf die
Inhouse-Testabteilung beim Leiterplattenhersteller übertragen werden. Dies betrifft
nicht nur das einfache Testpersonal, sondern insbesondere auch die Ebene der
Entscheidungsfindung.
In Kapitel Einleitung wird ganz kurz auf die heute üblichen Testverfahren
eingegangen. Dabei wird die Basis für die folgenden Kapitel gelegt, welche gewisse,
daraus folgende Anforderungen formulieren. In Hardware sind dies technische
Anforderungen an die Produktionsmittel. Brainware beschäftigt sich mit
Teststrategien und Anforderungen an Management, CAM-Abteilung und
Testpersonal. In Kapitel Software erfolgt eine Erklärung ausgewählter
Rechenverfahren und beleuchtet, darauf aufbauend, einige Aspekte, welche bei der
Diskussion um Datenformate bislang nicht berücksichtigt wurden. Der Beitrag
schließt mit allgemeinen Betrachtungen zur Dienstleistung ab.
Die hier gemachten Angaben gelten für Europa und erfolgen nach bestem Wissen
und Gewissen. Eine erschöpfende Behandlung der Thematik würde Bände füllen, so
dass an dieser Stelle nur einige Aspekte beleuchtet werden können. Einige
beschriebene Verfahren sind durch Patente geschützt, und vor deren Verwendung
müssen zunächst die Nutzungsrechte geprüft werden.
Bad Camberg im Sommer 2000
Track Test GmbH
Entscheidend für die Frage, welche Dichten bei welchem Durchsatz erzielbar sind, ist
nicht alleine das Prüfgerät. Viel mehr kommt es auf das Zusammenspiel aller
beteiligten Komponenten an. Eine einzige klemmende Prüfnadel im Adapter kann
den Durchsatz auch des besten Testers auf einen verschwindenden Bruchteil
reduzieren oder sogar die zu prüfende Leiterplatte zerstören. Die Ursache hierfür
kann ein Mangel in der Software sein, eine veraltete Bohrmaschine, ein falscher
Bohrparameter oder ungeeignetes Material. Wie so oft gilt auch hier, dass eine Kette
nur so stark ist wie ihr schwächstes Glied. Eine Beschreibung der zur Zeit
verfügbaren Grundgeräte macht aus diesem Grund an dieser Stelle keinen Sinn.
Wichtiger ist das Verständnis der Testprinzipien und der damit verbundenen
Probleme. Hier kann gesagt werden, dass derzeit der Fingertest und der Test mit
universellen Nadelbettadaptern als Standardverfahren am Weitesten verbreitet sind.
Trotz ihrer Grenzen kann mit geeigneten Strategien noch einiges aus diesen heraus
geholt werden. Dies erfordert aber die Mithilfe aller am Produktionsprozess
beteiligten Parteien.
1.1.
Elektrische Testverfahren für unbestückte Leiterplatten
Eine gute Übersicht über die Leistungsfähigkeit der Testverfahren bietet die
Broschüre der VDL-Projektgruppe Grenzen der Funktionsprüfung II ([VDL99]). Hier
sind fünf Prüfklassen definiert, deren Prüfpunktdichten von weniger als 20 bis hoch
zu 400 Punkten pro Quadratzentimeter liegen.
1.1.1. Festverdrahtete Adapter und Sonderadapter
Hier sind der Fantasie praktisch keine Grenzen gesetzt. Auch Platinen höherer
Dichte können oft mit ausreichendem Durchsatz getestet werden. Allerdings liegen
auch die Kosten oft jenseits der Schmerzgrenze. Im Gegensatz zu StandardAdaptern, die in der Regel nur wenige hundert Mark kosten, kommen hier leicht
einige Tausender zusammen. Die Reaktionszeiten sind auf Grund der hohen
Komplexität beim 24-Stunden-Service (oder kürzer) inakzeptabel. Sonderverfahren
können daher nur für sehr hohe Stückzahlen oder Langläufer in Frage kommen. Bei
der weiteren Betrachtung sollen sie hier keine Rolle spielen.
Aber auch hier muss deutlich gesagt werden, dass den herkömmlichen bekannten
Adapterverfahren Grenzen gesetzt sind. Als Faustformel kann fest gehalten werden,
dass ab Kontaktabständen von etwa 0.3 mm die Mechanik versagt. Sind dann noch
die Stückzahlen zu hoch für den Fingertester, gibt es ein Problem.
1.1.2. Paralleltest mit universellen Nadelbettadaptern
Seit etwa 20 Jahren wird dieses Prinzip angewendet. Als wichtigste Neuerung kann
hier vielleicht der Übergang von Federkontaktstiften auf Starrstifte genannt werden,
als Mitte der achtziger Jahre die SMD-Technik immer populärer wurde. Obwohl die
Federkontaktstifte auf Grund ihres Preises, ihrer korrosionsbedingt immer schlechter
werdenden Kontakteigenschaften und insbesondere wegen der mit diesen nur
begrenzt realisierbaren Testdichten praktisch ausgedient haben, werden sie jedoch
auch heute noch teilweise eingesetzt. Darüber hinaus lagern in den Kellern der
Leiterplattenhersteller Tausende von alten Adaptern, die nur ungern dem
Schrotthändler übergeben werden.
Mit den Starrstiften wurde ein gefedertes Grundfeld im Prüfgerät notwendig. Hier wird
zwischen fest im Raster installierten Federkontakten und den (heute üblichen)
auswechselbaren Federkassetten unterschieden. Bei den meisten Systemen liegt
der kleinste Standard-Durchmesser bei 0.45 mm. Die Anpresskraft liegt
üblicherweise zwischen 1.5 und 3.0 N je Teststift. Bei zu geringer Anpresskraft steigt
die Pseudofehler-Rate an, so dass ein akzeptabler Durchsatz nicht mehr möglich ist.
Es wurden Anstrengungen unternommen, die Adapter schneller und reproduzierbar
bestücken zu können bzw. erzielbare Dichten zu erhöhen. Hier hat sich das
Zwischenplattenprinzip
durchgesetzt.
Gegebenenfalls
werden
zusätzliche
Ladeplatten gebohrt. Ein wesentliches Merkmal eines Starrnadel-Adapters ist die
geometrische Anordnung der Teststifte. Schräg gestellte Stifte ohne Biegelinie
lassen, je nach Dichte der Leiterplatte und Stiftauslenkung eine manuelle
Bestückung von bis zu 8000 Stiften pro Stunde zu, während eine BiegelinienGeometrie in der Regel Bestückungsautomaten erfordert (die trotzdem meist nur
unbefriedigende Bestückungszeiten liefern). Dieser Punkt wird später noch vertieft.
Mit Einführung der SMD-Technik ergab sich bald die Notwendigkeit für den
doppelseitigen Leiterplattentest, bei dem zwei Universaladapter zum Einsatz
kommen. Spätestens zu diesem Zeitpunkt musste ein weiteres Problem gelöst
werden, dass nämlich eine Nadel versehentlich aus dem Adapter fällt. Mit ganz
glatten Nadeln können sicherlich die besten Dichten erzielt werden, dafür benötigen
sie einen speziellen Festhalte-Mechanismus. Hier wurde, mit wenig Erfolg, mit in den
Adapter eingelegten Schaumstoff- oder Gummimatten ("Bettnässereinlagen")
experimentiert, welche von den Nadeln durchstoßen werden und diese somit auf
Grund der Reibung fixieren. Abgesehen von Kopfstiften mit glattem Schaft und
dickem Kopf, welche nur für den unteren Adapter in Frage kommen, haben
Starrnadeln für den oberen Adapter deswegen üblicherweise irgendwo eine
Verdickung.
Beim mechanischen Aufbau der Starrnadel-Adapter wird zwischen dem (mittlerweile
veralteten) flexiblen und dem starren Prinzip unterschieden. Das flexible Prinzip
erfordert meist teures federndes Spezialzubehör, mit dem die Adapterplatten
übereinander montiert werden. Beim starren Aufbau können billige Normteile
(Bolzen, Schrauben, ...) verwendet werden, dafür ist aber das aktive Grundfeld
federnd auszulegen.
Je nach Konstruktionsprinzip variiert die Anzahl der Platten im Adapter von 6 bis weit
über 20 (zwanzig!) für einen doppelseitigen Test. Die Adapterplatten sind zwischen 1
mm und 5 mm dick und bestehen beispielsweise aus Plexiglas oder FR4-Material.
Plexiglas kostet nur etwa ein Viertel des Preises für FR4, hat dafür etwas schlechtere
mechanische Eigenschaften beim Bohren. Auch können FR4-Platten dünner
ausgelegt werden. Aus Kostengründen sollte der Einsatz eines Adaptersystems auf
Basis von FR4-Material gut überlegt sein.
Ein nicht zu unterschätzendes Problem stellt die ungleiche Lastenverteilung bei
doppelseitigen Adaptern dar. Bei 10.000 Punkten ergibt sich eine Anpresskraft von
bis zu 30.000 N, die auf den Adapter und die zu prüfende Leiterplatte wirken.
Unregelmäßig verteilte Dichtebereiche auf der Leiterplatte bringen schon bei
geringen Punktzahlen die gesamte Statik des Testadapters durcheinander. Die
Folgen sind Verwindungen, welche dazu führen, dass die Leiterplatten teilweise nicht
mehr sicher kontaktiert wird. Der Durchsatz geht dann auf Grund hoher
Pseudofehler-Raten gegen null. Abhilfe schaffen zusätzliche Abstützungen, deren
Position von der Software berechnet werden muss. Die Entwicklung guter
Softwareprodukte für den Adapterbau setzt daher Kenntnisse aus dem
Maschinenbau voraus.
Weiteres Ungemach droht bei bestimmten doppelseitigen Adaptersystemen durch
statische Aufladung, welche die Elektronik des Testgeräts in Mitleidenschaft ziehen
kann. Die Aufladung resultiert aus der Geschwindigkeit, mit der das Prüfgerät nach
dem Einlegen der Leiterplatte die beiden Hälften der Andruckeinheit zusammen fährt.
Kann die komprimierte Luft anderweitig nicht entweichen, streicht sie mit hoher
Geschwindigkeit auf der Oberfläche des Adapters entlang nach außen. Um Abhilfe
zu schaffen, werden deshalb manchmal zusätzliche Luftlöcher gesetzt.
Das Bohren eines Vielplattenadapters kann sehr zeitaufwändig sein. Als Richtgröße
können etwa 1000 Punkte je Stunde veranschlagt werden. Dies beinhaltet die reine
Bohrzeit als auch bestimmte Vor- und Nacharbeiten. Bei einem Adapter mit 10.000
Prüfpunkten kann so leicht eine Schicht verstreichen. Da praktisch alle Platten
unterschiedlich sind, bringen Mehrspindler-Bohrautomaten kaum Vorteile. Der
Einsatz von automatischen Beladern hingegen hat sich bewährt.
Die Ausführungen zeigen, dass das Konstruktionsprinzip des Adapters entscheidend
für die variablen Kosten ist, welche leicht aus dem Ruder laufen und die fixen Kosten
für Miete, Leasing oder Finanzierung schnell in den Hintergrund drängen können.
1.1.3. Fingertest
Die zweite Hälfte der neunziger Jahre war geprägt von einer Fingertest-Euphorie.
Endlich, so war die Annahme, war es möglich, den unliebsamen Adaptertest für
kleine und mittlere Serien abzuschaffen. In der Tat werden die Testzeiten immer
besser, eine Ablösung des Adapters ist aber nicht in Sicht. Problematisch sind die
vielen mittleren Serien, für die es kein Patentrezept gibt.
Im Gegensatz zum Paralleltester mit universellem Grundfeld gibt es im Bereich der
Flying Probe Tester größere Unterschiede in den Ausprägungen. Sie variieren in der
Anzahl der zur Verfügung stehenden Finger und dem Einspann-System, welches
speziell bei flexiblen Schaltungen sehr wichtig ist. Des Weiteren gibt es
elektromechanische und optische Ausrichtesysteme. Die Form der Messproben
reicht vom spitzen Konus bis hin zur flachen angeschrägten Messerspitze.
Die mechanische Auslegung entscheidet über die Auflösung und die
Wiederholgenauigkeit des Geräts. Für moderne Geräte werden Padbreiten von bis
zu 50 µ m und weniger an propagiert. Hier sollten die Herstellerangaben vor dem
Kauf auf jeden Fall durch Benchmarks mit eigenen Leiterplatten verifiziert werden.
Nur so kann die Leistungsfähigkeit des Geräts an den eigenen Erfordernissen
gemessen werden.
Ein weiterer Punkt betrifft die Kraft, mit der die Messspitzen auf SMD-Pads drücken.
Gute Geräte bieten hier mehr Variabilität. Die Spanne reicht von 0.1 N bis 1.0 N. Die
Probes sind viel spitzer als Nadeln für einen Universaladapter, so dass eine
geringere Kraft als beim Adapter ausreicht um einen guten Übergangswiderstand zu
erzielen. Kritisch ist die Geschwindigkeit, mit der sich die Probes in Z-Richtung
bewegen. Speziell für Bond-Pads, auf denen keine Abdrücke hinterlassen werden
dürfen, hat dieser Punkt erhebliche Bedeutung, denn nicht selten wurden schon
Leiterplatten von ungeeigneten Testern zerstört. Eine niedrigere Geschwindigkeit
führt aber zu erhöhten Testzeiten.
Die Messverfahren haben sich mit der Zeit entwickelt. Am Anfang stand die
zeitaufwändige rein Ohmsche Widerstandsmessung. Für den Unterbrechungstest
eines Netzwerkes der Länge n sind n-1 Messungen notwendig. Noch schlechter
sieht die Situation für den Kurzschlusstest aus. Sollen m Netzwerke zu 100%
gegeneinander auf Kurzschluss getestet werden, sind m(m-1)/2 Messungen
erforderlich. Dieses quadratische Wachstum ist unakzeptabel. Bei 1000 Netzen
wären dies nämlich knapp 500.000 Kopfbewegungen. Daher wurde die so genannte
Adjacency-Liste eingeführt. Diese Liste gibt an, welche Netze in enger Nachbarschaft
zueinander stehen. Sie wird von der CAM-Station nach der Berechnung der
Netzwerkliste ermittelt. Das Verfahren hierzu entspricht einer Art Design-Rule-Check,
wobei der CAM-Operator die maximale Distanz einstellen kann. Hier sind Werte bis
etwa 2 mm üblich. Es wird davon ausgegangen, dass es keine Kurzschlüsse über
weitere Distanzen gibt. Dieser Punkt ist sehr strittig. Der Kurzschlusstest mit
Adjacency-Liste ist also keine! 100%-Prüfung im Sinne des Paralleltests.
Eine Verbesserung der Laufzeiten wird durch die Abkehr von der rein Ohmschen
Messung erzielt. Die kapazitive Messung, welche allerdings nur bei Leiterplatten
funktioniert, die große Kupferflächen haben (z.B. Innenlagen für die
Spannungsversorgung), kann sowohl die Unterbrechungsmessung als auch den
Kurzschlusstest beschleunigen. Beim Test der ersten Platte erfolgt ein "KennkurvenLernschritt", der etwas länger dauert. Auch hier kommt die Adjacency-Liste zum
Einsatz. Aus theoretischer Sicht kann von einem 100%-Test bei der rein kapazitiven
Messung nicht gesprochen werden, da Fälle denkbar sind, bei denen Fehler
übersehen werden. Eine solche Diskussion ist jedoch als sehr akademisch
anzusehen. Die Qualität der kapazitiven Messung wird im Allgemeinen nicht
bezweifelt.
Die kapazitive Messung entbindet nicht von der Notwendigkeit des Kurzschlusstests
über die Adjacency-Liste. Abhilfe schafft hier ein Antennen-Messverfahren, bei dem
bestimmte Netzwerke als "Antennen" verwendet werden. Stromversorgungslagen
eignen sich hier besonders, es sind aber auch Netzwerke denkbar, welche gut über
die Leiterplatte verteilt sind. Die Idee bei diesem Verfahren ist, mit einer Probe ein
Antennen-Netzwerk zu kontaktieren, während die anderen Probes dazu verwendet
werden, alle anderen Netzwerke gegen die Antenne zu messen. Hier sind nur so
viele Messungen nötig, wie es Netzwerke gibt. Das quadratische Wachstum der
Anzahl der Kurzschlusstests wird also auf lineares Wachstum gedrückt. Das
Verfahren funktioniert aber nicht immer für alle Netze, insbesondere dann, wenn die
Antenne nicht gut verteilt ist. Diejenigen Netze, bei denen fragliche Messwerte
auftreten, werden dann noch konventionell nachgetestet. Dieser Nachtest kann
wieder auf die Adjacency-Liste zurück greifen. Das Antennen-Messverfahren ist
damit sicherer als die reine Adjacency-Methode. Bei idealen Antennen kann von
einem 100%-Test gesprochen werden. Auch hier dauert der erste Test länger als die
Folgetests.
Ein Variante des Fingertests stellt das so genannte Flying Grid dar. Hier sind einige
hundert Messpitzen auf mehrere gegeneinander bewegliche Raster montiert. Die
Idee ist dabei, die Fahrwege für einzelne Probes zu minimieren. Im Idealfall
brauchen die Raster kaum bewegt zu werden, da in der Nähe der zu messenden
Koordinate bereits eine Nadel steht, die dann nur noch einen Z-Hub ausführen muss.
1.1.4. Translator- und Knickdrahttechnik
Lokale Dichtebereiche auf der Leiterplatte können, insbesondere bei kürzeren
Teststiften, dazu führen, dass es keine kurzschlussfreie Rasterzuordnung für einen
Universaladapter gibt. Die maximal zulässige Auslenkung der Stifte schränkt die
Freiheitsgrade ebenso ein wie untere Grenzen bei den Stiftdurchmessern. Schon vor
langer Zeit wurde aus diesem Grund das so genannte Translator-Board entwickelt.
Es handelt sich hierbei um eine doppelseitige Leiterplatte (oder sogar ein MultilayerBoard), die auf der oberen Seite prüflingsspezifische und auf der unteren Seite
rasterspezifische Kontaktpads aufweist. Der Adapter ruht auf den Grundraster des
Prüfgeräts. Darauf kommt des Translatorboard. Auf das Translator-Board kommt
eine Leitgummi-Matte mit voneinander isolierten "Leitkanälen". Das Leitgummi stellt
den Kontakt zwischen den prüflingsspezifischen Pads des Translator-Boards und der
Leiterplatte her.
Da das Translator-Board beliebig komplex sein kann, sind auch hoch dichte
Leiterplatten prüfbar. Grenzen sind hier durch die Abstände der Leitkanäle gesetzt.
Dem gegenüber steht der Nachteil des komplexen Adaptergebildes mit zusätzlichen
Kontakt- problemen an den Pads des Translators und des Leitgummis. Auch die
Leitgummi-Matten selbst sind nach spätestens einigen hundert Hüben kaputt und
müssen ausgetauscht werden. Das kann teuer werden. Generell sind die
Übergangswiderstände beim Leitgummi vergleichsweise hoch, so dass die untere
Ohmschwelle für den Unterbrechungstest bei mindestens 100Ω liegt.
Für den Dienstleister scheidet dieses Verfahren aus, da keine Möglichkeit zur
Herstellung des Translator-Boards besteht. Aber auch für den Inhouse-Test beim
Leiterplattenhersteller entstehen nicht unerhebliche Kosten. Guten Produktionen
dürfte die schnelle Herstellung des Translators zwar keine Schwierigkeiten bereiten,
das Restrisiko eines Defekts kann aber nicht gänzlich ausgeschlossen werden. Die
Entflechtung des Translator-Boards erfolgt weitgehend automatisch mit einer
speziellen Software während der Adapter-Konstruktion. Die Herstellung des
Translator-Boards verzögert also die Fertigstellung der kompletten Adapter-Einheit.
Ein alternatives Verfahren trägt das Leitgummi direkt auf den prüflingsspezifischen
Pads des Translators auf. Dieses Verfahren scheint viel leistungsfähiger und
langlebiger zu sein, jedoch gibt es weltweit nur einzelne Firmen, die es beherrschen
bzw. über die notwendigen Materialien verfügen.
Bei der Knickdrahttechnik, die eigentlich für die Waferproduktion entwickelt wurde,
wird die Eigenschaft eines Drahtes ausgenutzt, ab einer bestimmten Längskraft nach
der Seite auszuknicken. Im Gegensatz zur Feder steigt die Kraft ab dem Zeitpunkt
des Ausknickens nicht weiter an. Unter Einbeziehung von Material, Durchmesser und
Knicklänge kann die auf ein Pad wirkende Maximalkraft berechnet und begrenzt
werden. Die Knickrichtung des Drahtes ist nicht exakt steuerbar, so dass
benachbarte Drähte Kurzschlüsse haben können. Aus diesem Grund müssen die
Drähte im Knickbereich isoliert werden. Der Vorteil dieser Methode besteht darin,
dass kein weiteres federndes Element in der Messstrecke benötigt wird. Der
Drahtdurchmesser liegt zwischen 0.1 mm und 0.4 mm. Eine mögliche Anwendung
kann darin bestehen, die Leitgummi-Matte des Translators durch einen
Knickdrahtadapter zu ersetzen.
Mit dünnen Knickdrähten können sicher engere Abstände im Fine-Pitch-Bereich
realisiert werden. Dem gegenüber steht ein sehr komplizierter und teurer
Adapterbau. Löcher müssen grundsätzlich auf dem Restring kontaktiert werden. Die
möglichen Höhendifferenzen im Adapter sind im Gegensatz zum Starrstift mit
federndem Kontakt sehr begrenzt. Die Treffsicherheit wird durch diese Methode nicht
verbessert. Sie kann eher unter der Kategorie "Sonderverfahren" eingeordnet
werden.
1.1.5. Hochfrequenztester
Hierbei werden fest verdrahtete Adapter mit berührungslos arbeitenden
Sensorköpfen kombiniert. Jedes Netzwerk wird konventionell kontaktiert, und zwar in
einem weniger dichten Bereich. Ein Sensorkopf schwebt über dem Fine-PitchBereich, beispielsweise einem BGA. In jedes Netzwerk wird nun über den normalen
Kontakt ein hochfrequentes Signal eingespeist. Der Sensor wertet die empfangenen
elektromagnetischen Wellen aus und kann so feststellen, ob es zwischen dem Punkt
der Einspeisung und dem Pad im engen Bereich eine Unterbrechung gibt.
Das Auflösungsvermögen liegt bei etwa 50µ m. Der Nachteil ist, dass der
mechanische Aufbau des gesamten Adaptersystems sehr aufwändig und teuer ist.
Aber für große Serien werden diese Tester im asiatischen Raum erfolgreich
eingesetzt.
1.2. Ausblick
1.2.1. Berührungsloser Test
Bis auf wenige Ausnahmen halten sich die Hersteller mit Informationen sehr bedeckt
bzw. wahren strenge Geheimhaltung. Von der Physik liegen die folgenden beiden
Ansätze nahe:
•
Aufbau der Messstrecke mit ionisiertem Gas
•
Elektronenstrahl-Verfahren
Beim Gasverfahren können die Düsen wie beim Fingertester auf beweglichen Köpfen
oder aber in einem Raster montiert sein. Bewegliche Köpfe lösen bestenfalls das
Problem des unerwünschten Abdrucks, nicht aber des geringen Durchsatzes. Ein
weiteres Problem dürfte die Streuung des Gases sein, welche die Auflösung negativ
beeinflusst.
Der Knackpunkt bei den Elektronenstrahl-Verfahren ist vermutlich ein erforderliches
Vakuum, dessen Aufbau Zeit kostet. Es muss abgewartet werden, was die Hersteller
in den nächsten Jahren hier anbieten können.
1.2.2. Partieller Test
Es wird vermutlich immer häufiger die Situation eintreten, dass aus Kosten- oder
Zeitgründen kein 100%-Test mehr möglich ist. Ein gerne praktizierter Ansatz ist es
beispielsweise, ganze Bondpad-Bereiche mit Hilfe eines "Stempels", beispielsweise
aus Leitgummi, kurzzuschließen, so dass wenigstens Unterbrechungen aus diesem
Bereich heraus gemessen werden können. Durch "sinnvolle" Kombinationen
mehrerer solcher Tests kann die Abdeckungsrate vergrößert werden, so dass
zumindest "neuralgische" Punkte erfasst sind.
Partielle Tests spielen bei der Prüfung von hoch integrierten Bauelementen
(Mikroprozessoren, Mikrokontroller, ...) eine große Rolle, da die Dauer vollständiger
Funktionstests exponentiell mit der Anzahl der zu verarbeitenden Signale wächst.
2. Hardware
Die hier formulierten Anforderungen sind nicht unbedingt neu. Die Hersteller der
Prüfgeräte haben den Handlungsbedarf ebenfalls erkannt. Deren Lösungsansätze
müssen jedoch sehr kritisch dahin gehend untersucht werden, ob und wem sie den
meisten Nutzen bringen. Niedrige Einstiegskosten bei der Investition in neue
Maschinen ziehen oft ungeahnte und nicht kalkulierbare Risiken bei den laufenden
Kosten nach sich. Diese werden gerne verschwiegen. Es ist nicht einzusehen, dass
für jede zu prüfende Leiterplatte 16 Adapterplatten gebohrt werden müssen, wenn in
der Regel die Hälfte auch ausreicht. Hier kann der Verdacht entstehen, dass der
Bedarf an teurem Zubehör-Material und insbesondere an Bohrkapazitäten in die
Höhe getrieben werden soll. Wieso muss es unbedingt ein neues bzw. ein weiteres
Testsystem sein, wenn das vorhandene Material durch sinnvolle Verknüpfung für die
Aufgaben noch ausreicht.
In [GMM99], dem Europäischen Trendbericht 1999 über Leiterplatten mit hohen
Integrationsdichten findet sich eine Tabelle, aus der zu entnehmen ist, dass derzeit
nur etwa 10% der Fertigungskapazitäten in der Lage ist, Leiterplatten mit "hohen
Anforderungen" mit akzeptablen Yield herzustellen. Nur 2% werden für Leiterplatten
in "Grenztechnologie" angegeben. Neben den "Visionen" von neuen Technologien
sind deswegen zu einem nicht unerheblichen Teil einfach nur kostengünstige
Strategien gefragt, die das vorhandene Material optimal nutzen.
In jedem Einzelfall sollte also objektiv untersucht werden, ob die formulierten
Anforderungen wirklich vorhanden sind und die angebotenen Lösungen optimal
zugeschnitten sind. Ergibt sich bei einer solchen Untersuchung beispielsweise, dass
die eigene Produktion in absehbarer Zeit nicht in der Lage sein wird, mehr als einige
wenige Prozente des Umsatzes mit Leiterplatten in Grenztechnolgie zu machen,
erübrigt sich die Anschaffung teurer Spezialmaschinen für den E-Test. Hier kommt
der unabhängige Dienstleister ins Spiel, der solche Engpässe temporär überbrücken
kann, sollen nicht Aufträge an die Konkurrenz verloren gehen.
Trotzdem kann der Bedarf nicht geleugnet werden. Dieser soll im Folgenden
präzisiert werden. In [TRI00] wird für den Paralleltest mit Universaladaptern zwischen
Grundgerät
und
Kontaktierungssystem
(Adaptersystem,
Kassetten,
...)
unterschieden. Diese Unterscheidung soll auch hier aufrecht erhalten bleiben, auch
wenn beide letztlich eine Einheit bilden sollen. Dieses Kapitel enthält daher die drei
Abschnitte, die sich mit dem Paralleltester, dem Adapterbau und dem Fingertest
beschäftigen.
2.1. Anforderungen an Paralleltester
Die folgenden Anforderungen liegen nahe, und die Hersteller arbeiten auch teilweise
daran. Deswegen sei nur eine kurze Auflistung angegeben:
•
Erhöhung der Dichte des Testrasters bei moderaten Kosten. Das 2.54 mmStandardraster (Single Density) ist auch heute noch sehr verbreitet. Geräte
doppelter Dichte, bei denen zwei Standardraster überlagert werden (Double
Density) oder Geräte vierfacher Dichte (Quad Density) werden immer noch zu
hohen Preisen angeboten. Entscheidend sind für eine bestimmte Ausbaustufe
(Prüfpunktzahl) nicht nur der Einstiegspreis/Prüfpunkt, sondern auch die
Kosten für einen weiteren Ausbau des Geräts. Je nach Konstruktionsprinzip
unterscheiden sich die Grundkosten für ein leeres Gerät nicht unerheblich. Die
Kosten für den Ausbau können aber dafür auch stark schwanken.
Eine alternative Methode zur Erhöhung der Dichte ist übrigens auch die
Mehrfachbelegung von Rasterpunkten. Zwei Teststifte teilen sich also den
selben Rasterpunkt. Dies ist nur möglich, wenn die beiden entsprechenden
Kontaktpunkte auf der Leiterplatte unabhängig voneinander sind, so dass sich
bei den Messungen keine Konflikte ergeben. Ein Test auf Kurzschluss
scheidet für zwei derartig betroffene Netze aus. Deswegen dürfen nur solche
Nadelpaare den selben Rasterpunkt kontaktieren, die nicht in der AdjacencyListe auftreten. Außerdem darf je Netzwerk-Paar nur eine Doppelbelegung
statt finden, da ansonsten die Unterbrechungsmessungen durch
Nebenschlüsse unmöglich gemacht würden. Bei gleich bleibender
Prüfpunktzahl kann die hier beschriebene Methode auch zur Vervielfältigung
der Testfläche verwendet werden, auf der dann Mehrfachnutzen geprüft
werden. Eine Adapter-Software, welche zur Konstruktion eines solchen
Adapters verwendet werden soll, muss die Netzstruktur der Leiterplatte
berücksichtigen. Für das Prüfgerät und das zu Grunde liegende
Prüfprogramm-Format muss die Sequentialisierung des Tests definierbar sein.
Nur solche Messungen, die voneinander unabhängig sind, dürfen parallel
ausgeführt werden. Tripelbelegungen usw. sind theoretisch denkbar.
Problematisch wird es, wenn der Adapter auf Basis einer falschen Netzliste
konstruiert wurde. Er muss in diesem Fall nämlich unter Umständen weg
geworfen werden.
•
Verbesserungen am mechanischen Aufbau. Je feiner die Strukturen der
Leiterplatte sind, desto mehr Aufwand muss hier getrieben werden, um bei
den genannten Andruckkräften nicht Schiffbruch zu erleiden.
•
Verlässliches
optisches
Ausrichtsystem
für
den
Ausgleich
von
Versatzproblemen. Ein Versatz kann sowohl von oben nach unten als auch
bezüglich der Aufnahmebohrungen auftreten. Hier könnte die Entwicklung von
Standards für das Design hilfreich sein. Rein theoretisch wäre eine
Arbeitsgruppe denkbar, welche aus Vertretern der Designer, der
Leiterplattenhersteller, der Dienstleister sowie der Geräteanbieter besteht. Ein
solcher Vorschlag scheint aber eher unrealistisch.
•
Automatisierung. Hier sind nicht nur die Be- und Entladesysteme gemeint,
sondern auch eine gewisse Offenheit der Systeme. Verlässliche nach außen
geführte Signal- und Steuerleitungen können von Drittanbietern genutzt
werden, die Prüfgeräte in die Umgebung vor Ort zu integrieren. SPS-Systeme
bieten hier nahezu unbegrenzte Möglichkeiten. Anwendungsbeispiele sind
Handlingssysteme auf Basis frei programmierbarer Roboter ("Einarmige
Banditen"), Markierungssysteme, Rückmeldungen an BDE, ...
2.2. Anforderungen an Adapter
Um auch zukünftig Universaladapter für den Test von HDI-Platten einsetzen zu
können, müssen alle Stellschrauben untersucht werden, die dieses Prinzip
verbessern könnten. Leider sind dem Grenzen gesetzt, welche hier aufgezeigt
werden sollen. Ein besseres Verständnis der Problematik kann für die Entwicklung
von Vermeidungsstrategien hilfreich sein, auf die in späteren Abschnitten
eingegangen werden soll.
Eine Testabteilung, welche täglich viele neue Adapter erstellt, ist auf ein
Adaptersystem angewiesen, welches schnell, sicher und reproduzierbar be- und
entstückt werden kann. Unter guten Voraussetzungen sind bei einer
Maximalauslenkung
von
etwa
200
mil
manuelle
Beund
Entstückungsgeschwindigkeiten von 1500 bis 8000 Pins/Stunde erzielbar. Die
Kosten für die Prüfstifte liegen für einen Adapter mit 3000 Punkten in der
Größenordnung von mindestens 750.- DM. Für die manuelle Be- und Entstückung
eines solchen Adapters durch angelerntes Personal können etwa 75.- DM
veranschlagt werden. Dies zeigt, dass im Mittel zehn Wiederholaufträge notwendig
wären, um die Lagerung von bestückten Adaptern zu rechtfertigen.
Die Reproduzierbarkeit der Bestückung wird im Allgemeinen durch Zwischenplatten
sicher gestellt. Diese führen die Nadeln zur richtigen Rasterposition. Die schnellste
Bestückung erreicht man mit einem System ohne Nadel-Biegelinie.
Die Be- und Entstückungsgeschwindigkeit wird beeinflusst durch zwei Faktoren:
•
Minimale Pad-Abstände
•
Maximale Stiftauslenkung
Je größer die Auslenkung, desto eher kann es beim Bohren der Zwischenplatten im
Fine-Pitch-Bereich zu Problemen kommen. Auch die Bestückung wird schwieriger,
denn jede Nadel muss, bis eine saubere Führung durch die erste Zwischenplatte
gegeben ist, erst "eingefädelt" werden, es sei denn, der Adapter wird von der
Rasterseite aus bestückt.
Die Beantwortung der Frage, wie groß die zulässige Auslenkung sein darf, hängt
maßgeblich von wirtschaftlichen Überlegungen ab. Bei Platinen, die anders nicht
getestet werden können, sind Auslenkungen von 20 mm und mehr denkbar. In
diesem Fall werden jedoch Teststifte verschiedener Längen gebraucht, um die
unterschiedlichen Anpresskräfte auszugleichen. Die Kraft, mit der ein Stift auf ein
Pad drückt, sinkt mit dem Cosinus des Schrägstellungswinkels. Gepaart mit vielen
Zwischenplatten entstehen dadurch "Kunstwerke" zu unakzeptablen Kosten,
zumindest bei Leiterplatten mittlerer Komplexität.
In jedem Fall bedeutet eine große Auslenkung auch eine höhere Reibungskraft, was
eine Gefahr für die Bondpads darstellt. Aufgrund der schwierigen Bestückung bleiben
solche Adapter häufig bestückt im Regal liegen und werden zu totem Kapital.
Eine größere Auslenkung bringt zwar Vorteile, was die Testbarkeit betrifft, sie ist aber
kein Allheil-Mittel. Auch wenn ein BGA-Bereich, isoliert betrachtet, aufgelöst werden
könnte, sind um diesen herum im Allgemeinen viele weitere Endpunkte zu finden, so
dass auch ein Testgerät höherer Dichte keine Gewähr für Testbarkeit ist.
Ein anderes Problem betrifft die Padabstände. Als unterster möglicher
Stiftdurchmesser wird oft 0.45 mm genannt. Der Knackpunkt ist hierbei die so
genannte Freie Knicklänge. Unabhängig vom Einspannmodell sinkt diese bei
gleichbleibender Andruckkraft proportional zum Quadrat des Stiftdurchmessers. Bis
auf eine Konstante reduziert sich diese also bei halbem Stiftdurchmesser auf ein
Viertel. Als Konsequenz werden zusätzliche Zwischenplatten notwendig, was
wiederum die Materialkosten und die Bohrzeiten in die Höhe treibt. Zu dünne Stifte
sind dann auch nur noch schwierig handhabbar.
Üblicherweise treten beide Probleme gepaart auf, so dass zusätzlich zu den
erhöhten Zwischenplatten-Anzahlen noch die Reibungsprobleme kommen.
Unter der Prämisse, dass der E-Test sowieso "viel zu teuer" ist, sind damit die
naheliegenden Möglichkeiten zur Optimierung des Universal-Adaptersystems
weitgehend ausgeschöpft. Der "beliebig dünne Prüfstift mit Augen" ist ebenso wenig
in Sicht wie das flexible "Floppy Grid".
Gefragt sind also Strategien, welche aus dem kostengünstigen Universaladapter
soviel heraus holen, wie möglich und die so nicht testbaren Bereiche auf eine andere
Art testen. An erster Stelle sei hier der Split-Adapter genannt, der auch in der VDLBroschüre [VDL99] eine eigene Rubrik besitzt. Die hinter dieser Strategie stehen
Idee wurde bereits in [AS96] vorgestellt. Es wird versucht, die Tests auf mehrere
Adapter zu verteilen, bzw. für die Leiterplatte einen Kombitest unter zusätzlichem
Einsatz eines Fingertesters durchzuführen. Diese Strategie bringt auch für Tester
höherer Rasterdichte Vorteile. Die Erfahrung zeigt nämlich, dass nicht selten lokale
Dichtebereiche auch bei diesen nicht aufgelöst werden können.
Allgemein empfiehlt es sich, lieber zwei Adapter zu bauen, als einen, der sozusagen
nur "mit kreischenden Rädern" funktioniert. Wie schon einmal angedeutet, kann eine
einzige schlecht laufende Nadel den Durchsatz in der Testabteilung stark
verschlechtern und Schäden am Prüfling verursachen.
Es gibt beim Splittest eine Vielzahl von Szenarien, auf die in Abschnitt 3.1.
(Systemintegration und Teststrategien) näher eingegangen wird. Vorher jedoch
sollen Möglichkeiten zur Verbesserung von Fingertest-Systemen erörtert werden.
2.3. Anforderungen an Fingertester
Die Geschwindigkeit der Flying Probe - Tester wird auf absehbare Zeit der
Flaschenhals bleiben. Sie werden zwar immer schneller, gleichzeitig steigt aber die
mittlere Prüfpunktzahl. Ob es den Geräteherstellern gelingt, hier bahnbrechende
Fortschritte zu machen, muss abgewartet werden. Auch erweisen sich falsche
Prognosen bei den zu erwartenden Losgrößen häufig als Problem. So kann schnell
die Situation eintreten, dass ein weiteres Gerät dazu kommt, ohne dass sich
strukturell viel ändert. Vor dem unüberlegten Kauf weiterer Geräte sollte unbedingt
die grundlegende Strategie überdacht werden (siehe Abschnitt 3.1.).
Andere Verbesserungen hingegen können auch dazu beitragen, den E-Test zu
beschleunigen. Die (heute üblicherweise optischen) Ausrichtsysteme müssen noch
verlässlicher werden, um den Einsatz von automatischen Beladern sicherer zu
machen. Trotz aller Versprechungen ist es noch eher die Ausnahme, dass ein Gerät
am Abend mit Leiterplatten beladen wird, und am nächsten Morgen die getesteten
Platten auf dem Stapel liegen.
In diesem Zusammenhang taucht gelegentlich die Idee auf, dass es gut wäre,
automatisch verschiedene Jobs über Nacht abarbeiten zu können. Dazu werden
aber gute Prüfprogramme gebraucht. Da die Software-Black-Box mit immer 100%-ig
stimmender Endpunktoptimierung und korrekter Netzliste nur in der Fabel existiert,
müssen vor der automatischen Abarbeitung erst einmal alle Prüfprogramme vom
Operator ausprobiert werden. Da stellt sich natürlich die Frage, ob ein solcher
Belader noch viel Sinn macht. In der Praxis würde jeder Job, welcher sich einmal auf
dem Tester befindet, durchgezogen und ausgeliefert. Da ist oft keine Zeit, um auf
den nächsten Morgen zu warten, denn der Operator ist oft billiger als ein verlorener
Eilzuschlag. Es dürfte interessant sein, welche Lösungen die Gerätehersteller in
Zukunft anbieten werden.
Dünne oder teilweise ausgefräßte Schaltungen, welche sich unter der Kraft einer
Messpitze verbiegen, machen den Einsatz des Fingertesters manchmal unmöglich.
Insbesondere doppelseitige Flexschaltungen erfordern besondere Sorgfalt. Hier
müssen unter Umständen aufwändige Masken erstellt werden, die dem Prüfling die
notwendige Stabilität verleihen. Je nach Konstruktionsprinzip der Messspitzen
können diese Masken jedoch die Fahrbewegungen behindern bzw. verlangsamen
oder (bei unzureichender Sorgfalt des Operators) die teuren Probes zerstören.
Das Auflösungsvermögen und die Wiederholgenauigkeit müssen der rasanten
Entwicklung der HDI-Platten Stand halten. Hier gelten ähnliche Argumente wie für
den Paralleltester. Einen schlechten, anfälligen mechanischen Aufbau kann auch die
beste Elektronik nicht gänzlich wett machen.
Datenoffenheit für Nachtest. Diese betrifft vor Allem die Verifikation von
Unterbrechungen, die während des Paralleltests gemeldet wurden. Zusätzlich
müssen reparierte Kurzschlüsse nachgetestet werden. Bislang geschieht dies in der
Regel manuell mit Hilfe einer Fehlersuch-Software oder aber unter Einsatz von (sehr
teuren) Fehlersuch-Stationen mit X/Y-Tisch. In beiden Fällen ist es der Mensch,
welcher entscheidet, ob eine Unterbrechung vorhanden ist oder nicht. Und es ist der
Mensch, welcher eine Kurzschlussstelle finden und reparieren muss (falls erlaubt).
Auch
Fehlersuch-Stationen,
welche
dem
Anwender
potentielle
Kurzschlusspositionen vorschlagen (die dann doch nicht stimmen), können an der
Tatsache nichts ändern, dass Menschen Fehler machen. Diese Fehler können
vermieden werden, wenn es gelingt, aus den Prüfprogrammen für den Paralleltest
und den Fehlerkoordinaten einen zügigen Nachtest zu generieren. Bis heute
bedeutet Nachtest häufig nichts anderes, als dass der Fingertester sofort nach dem
Volltest des Prüflings die selbst gefundenen fehlerhaften Messungen noch einmal
wiederholt.
Das Beispiel zeigt, dass generell eine Abkehr vom traditionellen Denken notwendig
ist. Der Fingertester darf nicht nur als isoliert arbeitende Maschine gesehen werden,
sondern eher als Dienstleister für die Paralleltester und das Testpersonal. Da er auf
Grund seiner Geschwindigkeit sowieso als alleinige Lösung der Probleme
ausscheidet, sollte er nur für das eingesetzt werden, was er gut kann, nämlich gute
und verlässliche Messungen durchführen, aber bitte so wenig wie möglich und so viel
wie nötig. Hier eröffnet sich ein gigantisches Betätigungsfeld für Systemintegrierer.
Das Hauptproblem hierbei ist der gewachsene Wildwuchs im Maschinenpark.
Hersteller A eines Fingertesters wird keine Lösungen zur Unterstützung des
Paralleltesters von Hersteller B liefern und umgekehrt. Voraussetzung für jede Art
von Lösungsansatz ist immer ein umfassendes Datenkonzept für den E-Test. Das ist
die Chance für unabhängige Drittanbieter.
3. Brainware
Fortschritte auf Basis der derzeit verfügbaren Technologien sind nur mit einer
Strukturänderung in den Kòpfen zu bewerkstelligen. Dazu müssen alle an einem
Strang ziehen, was vermutlich das größte Problem sein dürfte, erfordert dies doch
auch einen Blick über den eigenen Tellerrand und den aktiven Willen zur Mithilfe.
Daneben gibt es menschlich bedingte Schwierigkeiten, die wenig mit der reinen
Technik zu tun haben. Ein gutes Beispiel hierfür ist das vom Dienstleister zu
beobachtende Freitag-Nachmittag-Syndrom:
Zu den wünschenswerten Fortschritten zählt sicher auch die
Bereitstellung von Prüfprogrammen und Prüfadaptern "just in time". Es
liegt nahe, die produktionsfreien Wochenden hierfür nutzen zu wollen.
Also werden am Freitag Mittag die Daten zusammen gepackt, und mit
dem Hinweis "Platten kommen am Montag zum Test an" per E-Mail
zum Dienstleister versendet, um dann pünktlich nach Hause zu gehen.
Wenn die Daten dann nicht vollständig sind, ist leider niemand mehr
ansprechbar.
Ein anderes Beispiel zeugt vom so genannten "Weg von meinem Schreibtisch"Syndrom:
Bei
der
Berechnung
der
Netzliste
werden
gelegentlich
Widersprüchlichkeiten sichtbar, die eigentlich nur durch Fehler bei der
Layouterstellung bzw. in der CAM-Abteilung verursacht sein können. Es
macht Sinn, in einem solchen Fall Rücksprache mit der CAM-Abteilung
zu halten, um im Zweifelsfall die Produktion stoppen zu können. Ist die
CAM-Abteilung telefonisch erreichbar, heißt das noch lange nicht, dass
ein wirklicher Wille zur Ursachenforschung erkennbar ist. Sobald sich
nämlich ergibt, dass der Fehler wahrscheinlich in den Kundendaten
liegt, sinkt gelegentlich die Wichtigkeit gegen null. Die Platten sind
sowieso schon in der Produktion und im Zweifelsfalle halt nicht
funktionsfähig. Alles Weitere würde zusätzlichen Aufwand bedeuten.
Es stellt sich die Frage, was passieren würde, wenn der Dienstleister
sich genau so verhalten würde. Ob er nämlich Kundendaten oder CAMDaten erhält, kann er nicht beeinflussen. Wird in der CAM-Abteilung ein
Fehler gemacht, und der Dienstleister erhält CAM-Daten, so sind alle
Platinen, die auf dieser falschen Datenbasis getestet werden, als "Gut"
zu deklarieren.
Die hier geschilderten Situationen sollen jedoch in der weiteren Betrachtung keine
Rolle spielen, auch wenn sie nicht geleugnet werden können.
3.1. Systemintegration und Teststrategien
Die hier besprochenen Szenarien gehen von kleinen und mittleren Losgrößen aus.
Für Großserien sind sie weniger geeignet. Großserien im HDI-Bereich rechtfertigen
die Anschaffung von Testern höchster Dichte mit vollautomatischen Be- und
Entladern. Bei den Adaptern spielen Kosten und Fertigungszeiten (fast) keine Rolle.
Nicht testbare Fine-Pitch-Bereiche können auch mit Hilfe von Sonderlösungen
geprüft werden, die eine akzeptable Fehlerabdeckung liefern. Unter Einbeziehung
der Kenntnisse über die Qualität der Fertigungslinie können statistische Aussagen
über zu erwartende Ausfallraten nach der Bestückung gemacht werden. Wichtig
wären bei einer solchen Politik sehr regelmäßige Stichproben, welche
Qualitätseinbußen durch gewollte oder ungewollte Änderungen am Prozess
aufdecken.
Für kleine und mittlere Serien wird jedoch in der Regel ein 100%-Test gefordert, und
dies im 24-Stunden-Service oder schneller.
Voraussetzung für eine optimale Nutzung vorhandener Ressourcen ist ein
umfassendes Datenkonzept für den E-Test-Bereich, das die Maschinen
unterschiedlicher Hersteller "unter einen Hut" bringt. Hierzu gehört als Wichtigstes
eine Datenbasis, aus der alle Prüfdaten erzeugt werden können. Im Testfeld müssen
der gesamte Software- und Adaptierungsbereich so weit wie möglich vereinheitlicht
werden. Eine Fehlersuch-Software mit der selben grafischen Oberfläche für alle
Maschinen gehört ebenso dazu wie eine Echtzeit-Fehlerprotokollierung, welche
unabhängig vom Maschinentyp auf der selben Datenbasis auswertbare
Fehlerinformation speichert. Lösungen hierzu sind bereits teilweise realisiert und
vielfach im Einsatz (siehe [TRI00]). Ist diese Datenbasis einmal geschaffen, kann
über den Nachtest mit Hilfe des Fingertester nachgedacht werden.
Wie bereits angedeutet, bringt es viele Vorteile, auch den Adaptierungs-Bereich
soweit wie möglich zu überdenken. Auch Testgeräte ältester Bauauart können
meistens ohne viel Aufwand so weit mechanisch umgerüstet werden, dass sie mit
HDI-fähigen Adaptern arbeiten. Sehr oft besteht die Investition lediglich im Kauf einer
auswechselbaren Federkassette. Es spricht nichts dagegen, einseitige Tester weiter
zu verwenden, die bereits 15 Jahre oder älter sind. Sie gehen nicht kaputt und
messen oft nicht schlechter als moderne Maschinen.
Ist diese Basisarbeit einmal geleistet, kann ein Splittest-Konzept realisiert werden.
Die Szenarien hängen sowohl von der vorhandenen Maschinenausstattung als auch
von der Zielsetzung ab. Nicht nur doppelseitige, sondern auch ältere einseitige
Paralleltester können eingebunden werden. Es wird selbstverständlich immer
mindestens ein doppelseitiges Prüfgerät benötigt.
Bei allen Szenarien, die einen doppelseitigen Fingertester beinhalten, werden
möglichst wenige Messungen auf diesen verlagert. Vor dem Kauf eines neuen
Geräts sollte zunächst einmal überlegt werden, ob vielleicht eine der im Folgenden
beschriebenen Konstellationen zutreffen könnte. Einige der Strategien anerkennen
die Qualität des Kurzschlusstests über Adjacency-Liste. In allen Fällen wird
unterstellt, dass eine Platine, abgesehen vom Geschwindigkeitsproblem, vollständig
auf dem Fingertester prüfbar ist. Der Einfachheit wegen gehen sie von einem
zusätzlichen Split-Adapter aus. Mehrstufige Splits sind jedoch ebenso möglich. Für
das weitere Verständnis des Textes ist es nicht notwendig, die Szenarien im Detail
zu studieren. Wer möchte, kann direkt zum Ende der Fallbeispiele kurz vor Beginn
des Abschnitts 3.2 springen.
---------- Beginn der Fallbeispiele ---------Abkürzungen:
•
DS: doppelseitiger Paralleltester
•
SS: einseitiger Paralleltester
•
FT: doppelseitiger Fingertester
•
FP: Fine-Pitch-Problem auf Grund von Versatz oder zu dichter Padabstände
•
DP: Dichteproblem auf Grund zu vieler Testpunkte pro Flächeneinheit (TesterRaster nicht dicht genug)
•
J=Ja, N=Nein, E=Egal
Szenarien:
a. FT=J, SS=J, DS=N, FP=N, DP=N
Einzelpunkte möglichst nur auf einer Seite definieren. Einseitige Adapter aus
jeweils allen Punkten für beide Seiten erstellen. Je mehr Prüfpunkte die
Adapter haben, desto schneller ist der Fingertest. Auf dem Fingertester erfolgt
jeweils eine einzige Unterbrechungsmessung ausschließlich für Netze, die von
unten nach oben führen. Darüber hinaus prüft der Fingertester auf
Kurzschlüsse für solche Netzpaare, bei denen ein Netz nur Prüfpunkte unten
und das andere nur Prüfpunkte oben hat, und die in der Adjacency-Liste
aufgeführt sind (Adjacency rein über Innenlage).
Vorteil:
Sehr gute Beschleuigung der Testzeiten, oft um ein Vielfaches. Es werden viel
mehr Kurzschlusstests gemacht als die Adjacency-Liste vorschreibt.
Fingertester kann für Nachtest verwendet werden.
Grenzen:
Sobald Beschleunigung im Mittel! nicht ausreicht, sollte über den Kauf eines
doppelseitigen Testers nachgedacht werden.
b. FT=J, DS=N, SS=J, FP=N, DP=J
Trenne zunächst längere Netze (mindestens Länge 3!) auf und verlagere
diese Unterbrechungstests auf den Fingertester. Wiederhole dies bis DP=N
gilt. Zu diesem Zeitpunkt sind für den Fingertester nur Unterbrechungstests
definiert. Danach fahre wie unter a) fort.
Falls Losgröße zu hoch:
Verlagere die Testpunkte der ersten Trennung nicht auf den Fingertester,
sondern auf einen weiteren einseitigen Adapter, bevor wie unter a)
fortgefahren wird.
Vorteil:
Wie bei a). Zusätzlich können Dichteprobleme, wenn sie nur bei einem
kleineren Prozentsatz der Produktion auftreten, meist ohne einen
Paralleltester höherer Dichte bewältigt werden. Der erste Trennschritt führt
nicht zu zusätzlichen Kurzschlusstests auf dem Fingertester.
Grenzen:
Ab einem größeren Prozentsatz von HDI- Leiterplatten kann sich leider der
Einsatz eines Paralleltesters höherer Dichte als notwendig erweisen. Der
Break-Even-Point sollte wegen der astronomischen Testerpreise sehr
sorgfältig ermittelt werden. Es ist zu beachten, dass bestimmte Paralleltester
höherer Dichte auf Grund ihres Konstruktionsprinzips für den Test
von Leiterplatten "normaler" Dichte Nachteile bringen können. Der Tester
einfacher Dichte kann also nicht grundsätzlich einfach nur ersetzt werden.
Dies schränkt die Nutzungsrate für solch ein neues Gerät ein, was sich
wiederum in der Wirtschaftlichkeit bemerkbar macht.
c. FT=E, DS=J, SS=E, FP=N, DP=J
Trenne auf den zu dichten Testseiten längere Netzwerke (mindestens Länge
3!) auf und verlagere diese Punkte auf zusätzliche einseitige bzw.
doppelseitige Paralleladapter, bis sich für alle Adapter DP=N ergibt. Alle
Kurzschlusstests verbeiben im Ursprungsadapter, auch wenn der
Paralleltester natürlich für die zusätzlichen Adapter ebenfalls Kurzschlusstests
ausführt, was nicht notwendig wäre. Es ergibt sich ein 100%-Test ohne
Verwendung der Adjacency-Liste.
Vorteil:
100%-iger HDI-Test oft mit einfachsten Standard-Testern möglich.
Grenzen:
Durch zu viele Netzwerke der Länge 2 oder 1 kann Bedingung DP=N nicht
erreicht werden. Gehe in diesem Fall zu d).
Falls Zusatzadapter nur "wenige" Punkte hat und FT=J, dann verlagere deren
Unterbrechungsmessungen auf den Fingertester. Auch hier 100%-Test ohne
Verwendung von Adjacency-Liste.
d. FT=E, DS=J, SS=E, FP=N, DP=J
Zu viele Netzwerke der Länge 1 oder 2 machen es in c) nicht möglich, die
Bedingung DP=N zu erreichen, denn Einzelnetzwerke können nicht
aufgetrennt werden und Zweiernetzwerke nur unter zu großen Risiken (vgl.
Abschnitt 3.2.2.). Die Verfahrensweise lautet:
Trenne längere Netzwerke (ab Länge 3!) wie unter c). Verschiebe
ausgewählte Netzwerke der Länge 1 oder 2 komplett in den zusätzlichen
Adapter. Damit keine Kurzschlusstests verloren gehen, kopiere für jedes
verschobene Netz jeweils 2 Repräsentanten aller zum verschobenen Netz
adjazenten Netzwerke in den zusätzlichen Adapter, der damit auch für
Kurzschlusstests zuständig ist.
Falls im zusätzlichen Adapter immer noch DP=N gilt, kann mit diesem getestet
werden, ansonsten muss auf den Fingertester zurück gegriffen werden, falls
vorhanden.
Vorteil:
Mit diesem Verfahren steigt der Anteil der Platinen, die noch auf StandardTestern geprüft werden können.
Grenzen:
Rund um BGAs sind häufig nur Netze der Länge 2 zu finden, so dass eine
Trennung nicht oder nur unter zu großen Risiken möglich ist (vgl. Abschnitt
3.2.2.). Fingertester wird notwendig.
e. FT=J, DS=J, SS=E, FP=J, DP=J
Markiere kritische Bereich und trenne bzw. verschiebe betroffene Netze in
zusätzlichen Adapter wie unter d), bis FP=N und DP=N gilt. Falls im
zusätzlichen Adapter FP=J, gehe auf Fingertester. Falls dort aber FP=N und
DP=J, versuche zweiten Split, ansonsten gehe auf den Fingertester.
---------- Ende der Fallbeispiele ---------Niemand kann die Testbarkeit jeder Platine in ausreichender Geschwindigkeit
garantieren! Jeder Prüfling ist ein Einzelstück mit einzigartiger Netzlistenstruktur.
Eine Aussage, welche Strategie am ehesten geeignet ist, kann erst nach der
Berechnung der Netzliste und der Analyse der Netzlistenstruktur (Netzlängen,
geometrische Verteilung, ...) gemacht werden. Die Vielzahl der Varianten ergeben
aber einen guten Deckungsgrad. Die konsequente Anwendung der Verfahren kann
den Zwang zu einer unüberlegten Kaufentscheidung für ein neues Testgerät
zunächst vermeiden. Darüber hinaus helfen sie bei der Beurteilung des Testprofils,
was bei der Auswahl einer neuen Maschine wichtig ist. Falls im Einzelfall die
Testbarkeit mit vorhandenem Equipment nicht gegeben ist, kann der Dienstleister
immer noch Engpässe überbrücken.
3.2. Anforderungen an das Design
Viele Design-Richtlinien schränken die Freiheitsgrade während der Layouterstellung
ein. An den Stellen, die einen gewissen Handlungsspielraum zulassen, können der
Layouter und der CAM-Operator dem elektrischen Test unbestückter Leiterplatten
unschätzbare Dienste leisten. Die bisherigen Ausführungen zeigen die Grenzen der
derzeit verfügbaren Techniken auf. Auf dieser Basis sollen in diesem Abschnitt
Wünsche des Dienstleisters an den Layouter und die CAM-Abteilung formuliert
werden. Nicht in allen Fällen sind die Wünsche abwegig, was folgendes Beispiel
verdeutlicht, welches schon viele Jahre zurück liegt:
eine bestimmte Leiterplatte enthält sehr viele Vias mit einem
Durchmesser von 0.3mm. Die gesamte Serie zeigt an den
Durchkontaktierungen eine hohe Ausfallrate. Der Tester meldet eine
Vielzahl
von
Unterbrechungen.
Offensichtlich
hat
der
Leiterplattenhersteller Probleme mit der Fertigung. Das Layout selbst ist
nicht sehr komplex, und für doppelt so große Bohrungen ist
ausreichend Platz vorhanden. Gibt es hier etwa Design-Vorschiften?
Nach langer Überlegung wird der Layouter hierzu befragt. Die Antwort:
es gebe keinen besonderen Grund, aber er habe irgendwo gelesen,
dass es mittlerweile möglich sei, diese Durchmesser zu fertigen.
Eine solche Antwort ist eines "Profis" sicher nicht würdig, aber hier stellt sich die
Frage nach den Kriterien für das Berufsbild eine professionellen LeiterplattenDesigners. Tatsache ist, dass es wegen der heute verfügbaren billigen SoftwareProdukte in diesem Bereich auch weniger qualifizierte Layouter gibt
Wie bereits angedeutet, kann eine einziger zu weit ausgelenkter Prüfstift oder ein
einziger zu dichter Abstand der Prüfstiftköpfe entscheidend für den Misserfolg eines
kostengünstigen E-Tests mit Hilfe des Universaladapters sein. Unter dieser Prämisse
lautet die generelle Forderung:
So fein wie nötig, so grob wie möglich!
Präzisere Forderungen für testgerechtes Design werden im Folgenden genannt.
Diese sollten beherzigt werden, soweit es die Designvorschriften erlauben, ohne die
Funktionalität zu beeinflussen.
3.2.1. SMD-Pads
Die Länge von SMD-Pads entscheidet oft darüber, ob überhaupt ein
Universaladapter verwendet werden kann oder nicht. Es wurde bereits gesagt, dass
im Allgemeinen ein Stiftdurchmesser von 0.45 mm als Untergrenze betrachtet wird,
da dünnere Stifte zu schnell knicken oder nur schwer handhabbar sind. Um die
Abstände zu vergrößern, werden die Testpunkte deswegen auf den Pads
wechselweise auf der Längsachse in Richtung Pad-Ende verschoben. Der Abstand
zum Stiftkopf auf dem Nachbarpad steigt. Dieser Vorgang wird Staggering genannt.
In der Regel wird versucht, die Distanz zum Ende nicht unter 5 mil fallen zu lassen,
um Pseudounterbrechungen zu vermeiden. Sind die Pads zu kurz, kann nicht weit
genug gestaggert werden, was zu Kurzschlüssen der Stiftköpfe untereinander führt.
Bei sehr schmalen Pads, die darüber hinaus noch einen sehr engen Abstand haben,
kann es vorkommen, dass dieses einfache Staggering nicht ausreicht. Der Abstand
zum Stiftkopf auf dem übernächsten Pad ist nicht groß genug. Sind die Pads nur lang
genug, kann das so genannte Tripelstaggering helfen. Ein Testpunkt sitzt am PadEnde, der nächste in der Pad-Mitte und der Dritte am entgegengesetzten Pad-Ende.
Danach wiederholt sich das Muster. Die Frage, ob die Länge ausreicht, kann ganz
einfach mit Hilfe des Satzes von Pythagoras beantwortet werden.
Oft kommt es vor, dass die Pads zwar lang genug wären, durch die Lötstoppmaske
aber teilweise abgedeckt sind. Zu kurze Pads sind eine häufige Ursache für die
Notwendigkeit zum Einsatz des Fingertesters oder eines Split-Adapters. Es stellt sich
die Frage, ob die Design-Vorschriften grundsätzlich längere Pads verbieten, obwohl
auf der Leiterplatte genügend Platz wäre.
Nach dem Staggern könnte es sein, dass bei einem Pad, welches nur am Anfang
kontaktiert wurde, eine Unterbrechung irgendwo in der Pad-Mitte nicht entdeckt wird.
Eine solche Diskussion ist aber als rein akademisch zu betrachten. Der elektrische
100%-Test, der auch solche Fehler aufdeckt, ist eine Illussion. Auch Einschnürungen
können nicht gefunden werden. Dafür ist die optische Kontrolle zuständig. In diesem
Zusammenhang taucht gelegentlich die Frage auf, ob es möglich sei, ungewollte
Einschnürungen durch Erhöhung des Teststroms weg zu brennen. Diese soll hier
unkommentiert stehen bleiben.
Eine Verlängerung der SMD-Pads oder deren Freistellung kann auch Schäden am
Prüfling vermeiden. So wäre es schön, wenn es Informationen darüber gäbe, welche
Zonen des Pads Bondbereiche sind, und welche kontaktiert werden dürfen (genauer:
Abdrücke aufweisen dürfen).
3.2.2. Hilfspads
Für den In-Circuit-Test finden sich häufig zusätzliche Pads. Aus der Sicht des ETests gehören diese zum Layout und müssen ebenso geprüft werden. Weitere
Hilfspads, die nur für den E-Test der unbestückten Platine definiert werden, könnten
das Leben diesbezüglich stark vereinfachen. Die Entscheidung, wo und wie solche
zusätzlichen Hilfspads gesetzt werden, kann der Leiterplatten-Designer treffen.
Solche Pads müssen jedoch speziell gekennzeichnet werden, damit der Dienstleister
entscheiden kann, ob er sie für seine Zwecke verwenden möchte oder nicht. Ohne
eine solche Kennzeichnung würde der Dienstleister diese Pads als zum Layout
gehörig interpretieren und wäre damit gezwungen, diese in jedem Fall zu
kontaktieren.
Bei den Hilfspads kann unterschieden werden in solche, die Endpunkte im
problematischen Fine-Pitch-Bereich zu Mittelpunkten machen (direkte Entzerrung),
und solchen, die für Netzwerke mit zwei Endpunkten zusätzliche Möglichkeiten für
das Netzsplitting schaffen.
Die
direkte
Entzerrung
problematischer
Fine-Pitch-Bereich
ist
zwar
wünschenswerter, sie dürfte aber auf Grund mangelnden Platzes eher problematisch
sein. Immer dann, wenn eine Leiterbahn in ein SMD-Pad im Fine-Pitch-Bereich
mündet, bei dem es am anderen Ende nicht mehr weiter geht, könnte es hilfreich
sein, wenn an diesem anderen Ende dieses Pads eine weitere Leiterbahn zu einem
Hilfspad führt, welches statt dessen getestet wird. Wichtig ist hierbei, dass die
Anbindung der zusätzlichen Bahn an das SMD-Pad so erfolgt, dass dieses zu einem
Mittelpunkt im Netzwerk wird. Solche Hilfspads können sowohl Probleme auf Grund
zu dichter Testkopfabstände als auch auf Grund einer nicht ausreichenden Dichte
des Testrasters vermeiden. Auch hier muss noch einmal gesagt werden: jedes
Hilfspad, und wenn es auch nur ein einziges ist, könnte Wunder bewirken!
Mehr Freiheitsgrade bieten Hilfspads zur Umwandlung von Zweier-Netzwerken in
Dreier-Netzwerke. Sie könnten hilfreich sein, das Netzsplitting für solche Netze sicher
zu machen. Es wurde bereits mehrfach gesagt, dass Netze der Länge 2 nur unter
großen Risiken getrennt werden können. Beim Netzsplitting werden bestimmte Teile
des Netzes in einen anderen Adapter verschoben. Um nicht Unterbrechungstests zu
verlieren, muss es für jedes Netzwerk jeweils einen Repräsentanten geben, der in
beiden Tests vorkommt. Rein theoretisch könnten damit auch Zweier-Netzwerke
"getrennt" werden, indem beide Punkte in den anderen Adapter kopiert werden und
derjenige Punkt im ersten Adapter gelöscht wird, der mehr Probleme verursacht. Das
Risiko besteht in den nicht vermeidbaren Pseudounterbrechungen. Wenn von
ursprünglich zwei Testpunkten nur noch einer im ersten Adapter bleibt, und dieser
Einzelpunkt, aus welchen Gründen auch immer, nicht kontaktiert wird, kann es sein,
dass Kurzschlüsse zu einem anderen Netz nicht aufgedeckt werden. Zur
Vermeidung dieser Konstellation müssen von jedem Netz immer mindestens zwei
Punkte im Adapter verbleiben. An dieser Stelle sei daran erinnert, dass praktisch
jeder Adapter Einzelpunkte besitzt. Diese sind aber vom Leiterplatten-Designer
definiert. Der derzeitige 100%-Test anerkennt die Tatsache, dass Einzelpunkte, die
durch das Design gegeben sind, unter Umständen nicht auf Kurzschluss gegen
andere Netze getestet werden, auch wenn die Wahrscheinlichkeit hierfür
verschwindend klein ist (es gibt bei der Adapter-Inbetriebnahme bestimmte
Vermeidungsstrategien). Einzelpunkte, die durch das Netzsplitting verursacht
werden, kann sich der Dienstleister jedoch nicht leisten.
Immer dann, wenn in einem Zweier-Netzwerk einer der Endpunkte im Fine-PitchBereich liegt, der andere Endpunkt wenig Probleme macht und es keine
Möglichkeiten zur Kontaktierung des Netzes an einer dritten Position gibt, kann ein
Hilfspad die Lösung sein, welches über eine zusätzliche Leiterbahn an das ZweierNetzwerk angeschlossen ist. Selbstverständlich muss das Hilfspad selbst in einem
gut zugänglichen Freibereich liegen. Beim Netzsplitting werden der Punkt im FinePitch-Bereich und einer der unproblematischen Punkte in den Zusatzadapter
verschoben. Im ersten Adapter wird der Punkt im Fine-Pitch-Bereich gelöscht.
3.2.3. Vermeidung von Ringstrukturen
Es kommt zwar seltener vor, aber Ringstrukturen können zum Problem werden. Dies
liegt an der Endpunktberechnung. Bei einer Kette von SMD-Pads, die durch jeweils
eine Leiterbahn miteinander verbunden sind, würde die Endpunktoptimierung nur auf
dem letzten Pad einen Prüfpunkt definieren. Solche Konstellationen sind
beispielsweise bei Masseanbindungen denkbar. Wenn nun ein Herr Schlauberger
nach dem Motto Doppelt gemoppelt hält besser vom letzten Pad aus eine Leiterbahn
an den Anfang zurück führt oder sogar an einer anderen Stelle in das Ursprungsnetz
münden lässt, müssen als Konsequenz alle SMD-Pads der Kette kontaktiert werden.
Wer will ausschließen, dass es nicht zufällig zwei Unterbrechungen gibt? In
Bereichen, in denen um jede freie Rasterposition gekämpft werden muss, kann es
dadurch Schwierigkeiten geben.
3.2.4. Stichleitungen
Gelegentlich werden, ausgehend von einer dicken Bahn, Stichleitungen zu vielen
benachbarten Pads geführt, die dadurch alle zu Endpunkten werden. Aus Sicht des
E-Tests wäre es besser, die Pads zu verketten und nur das erste Pad mit der dicken
Leitung zu verbinden. Die Kettenstücke können anfänglich dicker und am Ende dünn
sein, falls die Stromstärke dies erfoderlich macht.
3.2.5. Flex-Schaltungen
So lange die Aufnahmesysteme bei den Fingertestern nicht besser werden, können
nur einseitige Flex-Schaltungen halbwegs problemlos getestet werden. Schaltungen
mit fast allen Prüfpunkten auf einer Seite und nur "wenigen" Endpunkten auf der
anderen Seite sollten dahin gehend untersucht werden, ob es nicht möglich ist, von
diesen wenigen Endpunkten aus zusätzliche Leiterbahnen zu neuen Hilfspads auf
der ersten Seite zurück zu führen.
3.2.6. NDK-Bohrungen, Verschiedenes
Auch wenn es gerne geleugnet wird, aber Versatz ist nicht auszuschließen. Bei sehr
dichten Platinen helfen oft zusätzliche Fixierbohrungen in der Mitte des Layouts.
Diese machen die Kontaktierung unter Umstäden sicherer. Für solche zusätzlichen
Fixierbohrungen müssen Freistellungen in allen Lagen vorgesehen werden. Als
Faustregel kann festgehalten werden, dass in jedem Einzelbild möglichst zwei,
besser aber drei NDK-Bohrungen untergebracht werden sollten.
Für die Aufnahme (genauer: Ausrichtung) auf dem Fingertester werden einige "gute"
Pads gebraucht, die über die gesamte Platine verteilt sind. Je nach Testsystem
eignen sich runde Pads besser als rechteckige Pads und umgekehrt. Tropfenförmige
Pads verursachen derzeit noch Probleme bei der automatischen optischen
Ausrichtung. Auch wenn es die Ausnahme ist, aber es gibt Layouts ohne geeignete
Pads. Der Operator muss dann bei jeder Platine manuell eingreifen und die
Ausrichtung selbst durchführen.
Die Antennenfeldmessung kann den Kurzschlusstest beschleunigen. Schlägt sie
aber fehl, muss mit Hilfe der Adjacency-Liste geprüft werden. Dieser Fall kommt, je
nach Produktionsprofil, von sehr selten bis häufig vor. Masselagen eignen sich gut
als Antennen. Aus diesem Grund können Multilayer-Platinen mit solchen Innenlagen
im Allgemeinen schneller (und damit kostengünstiger) geprüft werden als einfache
DK-Ware.
3.3. Anforderungen an die CAM-Abteilung
Der CAM-Operator kann ebenso dazu beitragen, eine Leiterplatte testbar zu machen.
Andere Maßnahmen machen den Testbetrieb sicherer, indem sie den menschliche
Faktor einbeziehen. Die meisten Probleme werden durch die Panelisierung
verursacht. Es gibt in praktisch allen Firmen Richtlinien, wie diese durchzuführen ist.
Hierbei geht es meist um zwei Zielsetzungen: Verwendung von Standard-Panels und
gute Ausnutzung. Da die Richtlinien oft die Problematik des E-Tests nicht
berücksichtigen, werden die so eingesparten Kosten manchmal im E-Test mehr als
aufgefressen. Eine sinnvolle Panelisierung kann auch hier Kosten sparen.
Der erste Schritt zur Lösung von Problemen ist, dass die CAM-Abteilung mit dem
Selbstverständnis eines Dienstleisters arbeitet. Die von ihr erzeugten
Produktionsdaten steuern maßgeblich die Kosten in allen nachgeschalteten internen
und externen Betriebseinheiten. Aus der Sicht des E-Tests muss leider oft ein
gewisses Unverständnis für die Probleme im Feld attestiert werden.
3.3.1. Panelisierung
Der Hauptfehler liegt in der fehlenden Einsicht, dass es für den Aufbau eines
Universaladapters für den E-Test weniger Freiheitsgrade als bei der Filmerstellung
gibt.
Problem 1: Ungeeignete Stepwerte
Nicht immer sind die Stepwerte durch die Maße der Außenkontur gegeben und daher
auch nicht immer unveränderliche Größen. Die Endpunktoptimierung und die
Netzlistenberechnung erfolgen fast ausschließlich im Einzelnutzen. Erst danach wird
die Step & Repeat-Operation durchgeführt. Praktisch allen Testsystemen liegt ein
Raster im Abstand von 2.54 mm zu Grunde. Wenn die Bildabstände kein Vielfaches
von 2.54 mm sind, muss die Rasterberechnung für das Gesamtbild gemacht werden.
Dies kann im Extremfall dazu führen, dass es für den Adapter im Einzelnutzen eine
Rasterauflösung gibt, für die Bildkopie aber nicht. Der Adapter ist nicht beliebig
kopierfähig wie ein Bild auf dem Film!
Auch bei gegeneinander gedrehten Einzelbildern (z.B. L-Formen) garantieren
Vielfache von 2.54 mm die Kopierfähigkeit.
Problem 2: Orientierungsmix
Regelmäßig gegeneinander gedrehte Einzelbilder sind in der Regel kein Problem.
Die Schwierigkeiten fangen an, wenn der Adapter aus Kostengründen weniger
Einzelbilder hat als das zu testende Panel. Ein Vierfach-Panel kann beispielsweise in
zwei Schritten auf einem Zweifach-Adapter getestet werden. Wenn aber auf dem
Panel noch ein fünftes Bild vorhanden ist, welches aus Gründen der Kostersparnis
um 90 Grad verdreht an der Seite liegt, ist ein Steppen des Tests nicht mehr möglich.
Die Adapterkosten liegen dann schnell um viele hundert Mark höher.
Problem 3: Ungeeignete Aufnahmen
Die Entscheidung, in welchem Nutzen ein Panel zu testen ist, kann der CAMOperator oft nicht treffen. Hier spielen Losgrößen und Abnahmevorschriften des
Kunden eine Rolle. Um die Entscheidungsfreiheit zu erhöhen, sollten Aufnahmen für
die verschiedensten Testszenarien vorgesehen werden. Auf die Regelmäßigkeit der
Abstände der Bildwiederholungen ist zu achten.
Problem 4: Layout-Mix
Es handelt sich hierbei eigentlich nicht um einen Fehler, sondern um eine rein
politische Entscheidung, verschiedene unabhängige Layouts auf dem selben Panel
zu mischen. Der Layout-Mix kommt häufig im Zusammenhang mit kleineren Serien
vor, die auf dem Fingertester geprüft werden sollen. Der Dienstleister wird den Mix
aus verschiedenen Platinentypen in der Regel trennen und die Jobs einzeln
behandeln (und berechnen!). Einen wichtigen technischen Grund gibt es auch. Bei
der Antennenfeldmessung kann eine Antenne des einen Platinentyps meist nicht für
Messungen des anderen Typs dienen. Damit scheidet diese Methode aus, und es
muss über die Adjacency-Liste geprüft werden. Diese ist unsicherer und dauert
länger.
Problem 5: Unregelmässige Stepwerte
Vielleicht liegt es an bestimmten Automatismen im CAM-Bereich, dass hier häufig
Unterschiede bei den Abständen zu verzeichnen sind. Diese bewegen sich häufig
nur im Bereich von wenigen hundertstel Millimetern, manchmal aber auch schon im
Zehntelbereich. Für die Adaptererstellung ist dies eine Fehlerquelle, die im
schlimmsten Fall bedeutet, dass ein Adapter neu gebohrt werden muss. Auf dem
Fingertester bedeuten sie unter Umständen eine längere Suche nach der Ursache
vieler Unterbrechungen, wenn nicht jedes Einzelbild extra ausgerichtet wird.
Problem 6: Symmetrien
Menschen machen Fehler. Deswegen sind Nutzenanordnungen problematisch, die,
wenn man sie um 180 Grad dreht, genau so aussehen wie das Urbild. Ohne eine auf
den ersten Blick erkennbare Unterscheidung kann es passieren, dass ein solcher
Mehrfachnutzen falsch auf den Tester gelegt oder in den Belader gesteckt wird. Dies
ist noch nicht so schlimm. Das Ergebnis bleibt das selbe, da der Prüfling
rotationssymmetrisch ist. Wirklich problematisch wird es jedoch, wenn die Platine
richtig auf dem Tester liegt, ein Fehler gemeldet wird und der fehlbare Mensch
während der Verifikation den Mehrfachnutzen aus Versehen verdreht inspiziert. Im
Allgemeinen enthalten die Einzelbilder zwar irgendwelche Nummern, die eine
Orientierung erlauben. Sie fallen aber nicht wirklich ins Auge. Hier können gezielt
eingebaute Unsymmetrien Fehler vermeiden helfen.
Problem 7: Galvanik-Stege
Galvanik-Stege verbinden gelegentlich die Einzelbilder im Mehrfachnutzen und
innerhalb diesen oft ganze Reihen von Goldfingern. Erfolgt der elektrische
Leiterplattentest vor dem Ausfräsen der Einzelbilder, muss die Netzlistenberechnung
und Adapterauflösung im Panel erfolgen, was sehr zeitaufwändig ist.
Unterbrechungen und Kurzschlüsse, die innerhalb eines Einzelbildes liegen, werden
wegen der noch vorhandenen Galvanik-Stege unter Umständen nicht aufgedeckt.
Eine solche Prüfung ist von einem 100%-Test weit entfernt. Es müssen auf jeden Fall
die Möglichkeiten geschaffen werden, die Stege vor dem Testen abzutrennen, auch
wenn im Panel getestet werden soll.
3.3.2. Bereitstellung von Daten und Information
Es wurde schon in einem Artikel der Fachzeitschrift PLUS erwähnt ([WIE00]), das
Problem mit den Standard-Blendentellern. Es gehört zur Problematik des "Weg-vonmeinem-Schreibtisch"-Syndroms und betrifft alle Abteilungen, die Fotoplot-Daten
erzeugen bzw. einlesen müssen. Die Emulation bestimmter Blenden mit Hilfe eines
Satzes von Standard-Blenden kann die Datenmenge erheblich aufblähen. Dies
macht jeden CAM-Schritt zur Qual.
Unvollständige Datensätze machen häufige Rückfragen notwendig. Der Dienstleister
erhält oft keine Information über neueste Platinenversionen, so dass zunächst eine
alte Adapter- oder Prüfprogrammversion zum Einsatz kommt. Erst wenn der Tester
unerwartete Fehler meldet, kommt dann der Verdacht auf, dass die CAM-Abteilung
eventuell vergessen hat, neueste Daten zu schicken. Verschiedene Daten werden oft
unter dem selben Namen verschickt, etwa als "testdata.zip". Dadurch entstehen
Versionsprobleme, wenn nicht ein ausgefallenes Mailbox- oder Emailsystem hier mit
Hilfe von Datum und Uhrzeit etwas Ordnung schafft.
Bestimmte Probleme entstehen alleine durch ein inkompatibles Vokabular. So gibt es
beispielsweise gelegentlich Missverständnisse bzgl. der Interpretation von
Fertigungsnutzen, Liefernutzen, Testnutzen, Zeilentest, Zelle, usw. Auch werden
gelegentlich "Adapter für den Fingertester" bestellt, was eine gewisse Unkenntnis
offenbart.
3.4. Anforderungen an Personal
Zum Personal gehören im weitesten Sinne alle Personen, welche Einfluss auf die
Fertigung haben, also Management, mittlere Führungsebene sowie einfache Arbeiter
und Angestellte. Alle sind gleichermaßen für die Qualität verantwortlich. Jeder muss
auch für sich selbst die Frage beantworten, was er selbst zum Erfolg beitragen kann.
Bestimmte Beispiele sollen belegen, dass hier Wunsch und Wirklichkeit gelegentlich
weit auseinander klaffen.
3.4.1. Das Management
Bei Umstruklurierungsmaßnahmen geht es selbstverständlich auch
Anschaffung neuer Maschinen. Für den E-Test wird dann etwa
argumentiert:
Es wird eine Bohrmaschine für die Adapter gebraucht. Dafür
alte Modell in der Ecke herhalten, an deren Stelle tritt dafür
Präzisionsautomat für die HDI-Produktion.
um die
wie folgt
muss das
ein neuer
Offensichtlich sollen die neuen HDI-Platten nicht getestet werden. Die Argumentation
verkennt die Tatsache, dass Adapter Prüfmittel sind, die einer bestimmten Präzision
bedürfen. Unter der Voraussetzung, dass eine Platine gut gefertigt ist, sind derzeit
Pads bis etwa 250 µ m mit dem Universaladapter verlässlich testbar, aber nur, wenn
die verwendete Bohrmaschine auch die erforderliche Genauigkeit aufweist und die
Leiterplatte "keinen" Versatz hat. Die Erfahrung zeigt außerdem, dass von den
ursprünglichen 250 µ m nach der Produktion nur noch 200 µ m übrig sind, und schon
gibt es Pseudofehler.
Voller Stolz wird die CAM-Abteilung als das Herzstück der Firma präsentiert, in die
gerade viel Geld investiert werden soll:
Prüfprogramme
Abfallprodukte.
und
Adapter
sind
dann
nur
noch
einfache
Dies ist einer der häufigsten, gleichzeitig aber auch unrealistischsten Wunschträume.
Wenn die Durchsatz der Testabteilung zu gering erscheint, kann sich die
Anschaffung eines neuen Paralleltesters als notwendig erweisen:
Der schafft 600 und mehr Platten pro Stunde.
Mag sein, aber nur wenn zuvor der gesamte Adapterbau überdacht wurde. ShuttleMasken müssen gefertigt werden. Die Adapter müssen in Betrieb gesetzt werden.
Die gemeldeten Fehler müssen auch verifiziert werden. Versatzprobleme reduzieren
den Durchsatz. Ohne eine wirkliche Feinjustage aller Stellschrauben im Prozess
gehen oft alle Geschwindigkeitsvorteile dahin.
Auch im Verifikationsbereich sind bestimmte Vorstellungen zu finden:
Die neue Station zeigt sofort die möglichen Kurzschlussstellen.
Es liegt die Vermutung nahe, dass viele Kurzschlüsse an den Stellen mit kleinstem
Abstand zu finden sind, obwohl hierüber gestritten werden kann. Bei langen, parallel
verlaufenden Leiterbahnen bringt diese Erkenntnis aber nicht viel.
Die folgende Aussage wurde auch schon gemacht:
Wir testen schon lange gegen Daten.
Im vorliegenden Fall wurden tatsächlich die Adapter und Prüfprogramme in der CAMAbteilung erzeugt und in die Testabteilung gegeben. Leider wurde vergessen, den
Mitarbeitern in der Testabteilung zu sagen, was mit den Daten geschehen soll. Also
wurde der Adapter in den Tester gelegt und vom Gutmuster das Prüfprogramm
gelernt. Niemandem fiel auf, dass beim Dreifachnutzen in der Netzliste die
Prüfpunktzahlen nicht durch drei teilbar waren. Schlimmer noch: es war in der
Testabteilung niemandem die Bedeutung der Netzliste bekannt. Aber alle Platinen
wurden nach dem Test manuell mit einem Gut-Stempel versehen. So lautete die
Vorschrift des QM-Systems!
3.4.2. Testpersonal
Das Beispiel am Ende des vorigen Abschnitts ist sicher die Ausnahme. Aber es ist
stellvertretend für eine Vielzahl von Unzulänglichkeiten. Einem großen Teil der
Belegschaft fehlt ein gewisses Grundverständnis für Strom, Spannung und
Widerstand. In manchen Testabteilungen gibt es kein einziges WiderstandsMessgerät, mit dem gewisse Meldungen des Prüfgeräts zwecks Ursachenforschung
am Prüfling verifiziert werden könnten. Prüfprogramme werden zwar meist in den
Tester übertragen, sobald dieser aber etwas mehr Unterbrechungen oder sogar
einen Unterbrechungsfehler-Überlauf meldet, wird die Ursache sofort im
Prüfprogramm oder im Adapter vermutet. Die Möglichkeit, dass die Unterbrechungen
tatsächlich vorhanden sein könnten, wird oft zunächst einmal nicht in Erwägung
gezogen. Konsequenterweise wird vom Prüfling gelernt, und schon stimmt der Test.
Klemmt ein Prüfstift, wird dieser einfach aus dem Adapter gezogen, und es wird
ebenfalls neu programmiert. Es wird fest gestellt, dass der Test bei einer unteren
Schwelle von 300Ω schneller ist, als bei 20Ω oder sogar 10Ω . Diese Tatsache wird
konsequent zur Durchsatzsteigerung benutzt, denn nur diese zählt. So wird aus
einem guten Testgerät ein "Schätzeisen" gemacht, ohne über mögliche
Konsequenzen nachzudenken.
Neben den rein technischen Problemen ist gelegentlich auch eine gewisse
Neophobie zu beobachten. Das neue System ist immer schlechter als das Alte. Es
hat zwar viele Vorteile, aber dies und das und jenes geht nicht mehr so wie vorher.
Warum es überhaupt ein neues System gibt, wurde nicht erklärt.
Darüber hinaus spielen auch bestimmte Ängste eine Rolle bei der Ablehnung neuer
Techniken. Wenn das neue Adaptersystem um ein Vielfaches schneller bestückt
werden kann als das alte, kann das ja nur bedeuten, dass bald der eigene
Arbeitsplatz in Gefahr ist.
Die Ausführungen zeigen, dass der elektrische Test ein bestimmtes Know-How des
Personals voraus setzt. Ist dieses nicht vorhanden, kann die Schlussfolgerung nur
sein:
Testpersonal muss geschult werden!
Für das Management bedeutet dies:
Know-How kostet Geld!
4. Software
Dieses Kapitel wird zunächst das Problem der Netzlistenberechnung im Sinne des ETests behandeln. Bei dieser spielen geometrische Positionen und deren
Verbindungsstruktur eine wesentliche Rolle. Auch die Form der den Positionen zu
Grunde liegenden Anschlussfelder (Pads, Features, ...) werden benötigt, soweit sie
nicht durch Lötstopplack verdeckt sind. Die Methoden der Netzlistenberechnung
haben Auswirkungen auf die zu Grunde liegenden Datenformate. Umgekehrt kann
auch gesagt werden, dass die Datenformate Auswirkungen auf die Art
Netzlistenberechnung hat. Zum Verständnis dieses Zusammenhangs müssen
zunächst einmal gewisse Grundlagen vermittelt werden.
4.1. Netzlisten
Über den Begriff Netzliste wird viel geschrieben, und es scheint darüber einige
Unklarheiten zu geben.
4.1.1. CAD-Netzliste
Diese ist nur bedingt mit der Netzliste für den E-Test vergleichbar. Die CAD-Netzliste
kann unter bestimmten Voraussetzungen als Grundlage für die Netzliste beim E-Test
verwendet werden. Einen immer 100%ig arbeitenden Automatismus kann es
vermutlich nie geben.
Ein automatischer Umsetzer der CAD-Netzliste müsste die Anschlusspositionen, die
zu Grunde liegenden Pads und Löcher sowie die Lötstoppmaske in die Konversion
einbeziehen. Dies ist noch kein Problem. Diese fängt erst bei der
Endpunktoptimierung an, und für diese muss das Design der Leiterplatte (die LayoutInformation) mit einbezogen werden. Die zentrale Frage, die ein automatischer
Umsetzer entscheiden müsste, ist die nach den Kriterien für einen Endpunkt in der
Netzliste.
4.1.2. Endpunktoptimierung
Es gab bereits Versuche, direkt aus der CAD-Datenbasis eine für den E-Test
verwendbare Netzliste zu extrahieren als Datei im Format IPC-D-356A auszugeben.
Diese sind daran gescheitert, dass niemand die Garantie für die Qualität der
Endpunktoptimierung geben wollte. Über den Begriff Endpunkt kann stundenlang
debattiert werden, ohne dass wirklich verlässliche Kriterien gefunden würden. Für die
Anbindung von Leiterbahnen an Pads gibt es unendlich viele Möglichkeiten. Die
Anzahl der Bahnelemente, die in einem Pad münden, gibt ebenso wenig her wie die
Einbeziehung von Winkelinformation.
Auch beim selben Pad könnten zwei verschiedene Personen zu einem
unterschiedlichen Urteil darüber kommen, ob ein Pad getestet werden soll oder nicht.
Die einfachste Methode wäre natürlich, alle Pads zu testen. Diese steht aber im
Gegensatz zur Forderung nach einer Beschleunigung der Testzeiten. Und gerade im
Fine-Pitch-Bereich ist der E-Test auf die Optimierung angewiesen. Auch die Kosten
des Adapters steigen erheblich, wenn alle Pads getestet werden.
Aber auch wenn alle Pads getestet würden, dürfte ein Automatismus Schwierigkeiten
mit teilweise durch Maske verdeckte Pads haben. Das Problem an den
Automatismen ist, dass sie nicht mehr überprüft werden.
Die Schwierigkeit der Endpunktoptimierung ist einer der Hauptgründe dafür, dass es
vermutlich nie eine Black-Box in diesem Bereich geben wird. Sie kann zwar immer
weiter verbessert werden, aber Ausnahmen sind immer konstruierbar.
4.1.3. Geometrische Netzliste
Es muss unter Anderem für eine bestimmte Menge von Punktkoordinaten berechnet
werden, welche Punkte miteinander über elektrische Leiter verbunden sind.
Eine solche reine Punkt-Verbindungsliste würde auch ausreichen, wenn es im
Testbereich nicht die Notwendigkeit geben würde, das Layout der Platine auf dem
Computer anzusehen und dabei auch elektrisch miteinander verbundene
Leiterbahnen zu erkennen, beispielsweise durch farbliche Hervorhebung.
Die Notwendigkeit der Verbindungsliste (Netznummernliste) auch für das Layout
verursacht Probleme. Diese treten immer dann auf, wenn der zu Grunde liegende
Fotoplot-Datensatz negative Elemente enthält.
Vor der Erläuterung dieser Probleme sollen aber die beiden Grundrechenverfahren
für die Endpunkt-Verbindungsliste besprochen werden. Mischformen beider
Verfahren gibt es ebenfalls, diese lenken aber von der eigentlichen Problematik ab.
Für die Berechnung der Netzliste gibt es im Prinzip zwei Verfahren:
•
analytisches Berechnungsverfahren
•
diskretes Berechnungsverfahren
Daneben gibt es Mischformen.
Ein rein analytisches Verfahren betrachtet die einzelnen Layout-Elemente als
grafische Objekte, die sich überlappen können. Die Entscheidung, ob sich zwei
Objekte überdecken, wird auf Basis der Koordinateninformation und der
Beschreibung der Elemente mit Hilfe mathematischer Methoden getroffen. Alle
Elemente erhalten am Ende eine Netznummer. Diejenigen Elemente, die miteinander
elektrisch verbunden sind, erhalten die selbe Netznummer.
Die Existenz negativer Elemente, welche darüber hinaus noch in beliebiger
Reihenfolge zwischen den positiven Elementen im Datensatz auftreten können,
macht die rein analytische Methode zum algorithmischen Langläufer. Während des
Verfahrens müssen die exakte Form von Überdeckungen und Auslöschbereichen mit
Hilfe mathematischer Funktionen beschrieben werden. In der Theorie ergeben sich
dann mathematische Beschreibungen für die positiven Bereiche, denen
Netznummern zugeweisen werden könnten. Ein solches Verfahren wäre so
aufwändig, dass sich in der Praxis zwei Vereinfachungen durchgesetzt haben:
•
Mischverfahren mit schwerpunktmäßig analytischen Methoden, wobei vorher
vom CAM-Operator zumindest negative Bahnen eliminiert werden müssen
•
Mischverfahren mit schwerpunktmäßig diskretem Verfahren auf Basis des
Rasterbildes bei intern vorgegebener Auflösung
Das auf dem Rasterbild basierende Verfahren hat den Vorteil, dass im Input keine
Einschränkungen bzgl. der Existenz negativer Elemente sind. Es arbeitet "on the fly",
indem die eingelesenen Daten mit einer bestimmten Auflösung (z.B. 1/1000 Inch) im
Speicher des Computers rasterisiert werden. Jede Koordinate, für welche die
Netzwerknummer berechnet werden soll, wird nach Beendigung des Plottens in ein
Rückscan-Verfahren einbezogen. Es genügt, für jedes der positiven Elemente eine
repräsentative Koordinate im Verfahren zu berücksichtigen.
Hersteller von Software-Produkten, die ein solches Verfahren anwenden, können
damit werben, bei der Berechnung der Netzwerkliste keine Probleme mit negativen
Elementen zu haben. Es wird aber verschwiegen, dass es damit nicht möglich sein
kann, korrekte Netznummern für solche positiven Datenelemente zu erhalten, die
von negativen Elementen durchtrennt werden.
Bei der Ausgabe der Netzliste im IPC-D-356A-Format beispielsweise fehlen diese
Layout-Elemente völlig!
Ein solches Verfahren reicht also den "Schwarzen Peter" an diejenigen Abteilungen
weiter, die auf eine korrekte Darstellung des Layouts inklusive Netzwerk-Information
angewiesen sind. In der Regel ist dies der E-Test.
Anders das Verfahren, welches vom CAM-Operator die Elimination der negativen
Bildelemente verlangt. Hier liegt der Aufwand in der CAM-Abteilung. Im einfachsten
Fall können die Daten konturisiert werden. Beim Konturisierungsvorgang gehen aber
bestimmte Informationen über die Ursprungsdaten verloren. Die auf der Netzliste
basierende Endpunktoptimierung wird bei reinen Konturdaten unter Umständen
schwierig, und Testfeatures sollen in ihrer Eigenschaft ja auch erhalten bleiben. Soll
dieses vermieden werden, ist Handarbeit im CAM-Bereich angesagt. Dafür hat der ETest gutes Datenmaterial.
Hersteller von Software-Produkten, die Elimination von negativen Elementen
(zumindest Bahnen) verlangen, müssen den Vorwurf hin nehmen, mit solchen Daten
Probleme zu haben, so dass in der CAM-Abteilung Aufwände entstehen. Dafür ist die
Qualität der ausgegebenen Dateien in der Regel besser.
4.2. Datenformate für den E-Test
Die in Abschnitt 4.1. gewonnenen Erkenntnisse können nun zur Formulierung
bestimmter Anforderungen an ein Transferformat für den E-Test verwendet werden.
Problematisch ist zunächst einmal der Begriff Transferformat selbst. Derzeit werden
alle existierenden Formate nämlich in einen Topf geworfen, seien es
Maschinensprachen wie Gerber oder DPF, seien es CAM-Datenformate wie ODB++
oder seien es höher entwickelte Datenformate wie IPC-D-356A.
Viel Aufwand wird derzeit getrieben, um aus Maschinensprachen höher entwickelte
Formate zu berechnen. IPC-D-356A enthält unglaublich viel Information im Vergleich
zu den reinen Maschinensprachen. Diese wird durch Einsatz der CAM-Station
gewonnen und leider oft nach Verwendung wieder gelöscht.
Wünschenswert wäre eine durchgängige Lösung vom Design bis zum E-Test. Dieser
Punkt wird noch einmal im Abschnitt GenCAM näher beleuchtet.
Die derzeitigen Verhältnisse gehen von einem Maschinenformat oder einem CAMFormat aus, welches in die CAM-Abteilung gegeben wird, die damit etwas tut.
Der Begriff Transferformat setzt voraus, dass eine Grenzlinie definiert wird, nämlich
zwischen dem Bereich, welcher Daten erzeugt und demjenigen, der diese Daten
verwendet. Unter Anerkennung der eben genannten unbefriedigenden Verhältnisse
macht es aus Sicht des E-Tests Sinn, diese Grenzlinie zwischen der CAM-Abteilung
und dem E-Test zu ziehen. Der Adapterbau und das davon abgeleitete Netzsplitting
sind dem E-Test zuzuordnen. Diese Trennung spiegelt die Verhältnisse in vielen
Firmen wider, auch wenn der Adapterbau teilweise in der CAM-Abteilung erfolgt.
Die Aufgabe der CAM-Abteilung und der Daten, die von ihr erzeugt werden, kann mit
folgendem Argument leicht präzisiert werden:
Die Endpunktoptimierung muss das Design von Pads und der daran
angeschlossenen Leiterbahnen beurteilen, um die Entscheidung treffen
zu können, ob es sich um einen Endpunkt oder einen Mittelpunkt
handelt.
Die Endpunktoptimierung ist also ein Design-Rule-Check und gehört, wie die
Netzlisten- und Adjacency-Berechnung, zum CAM-Schritt.
Das bedeutet, dass ein Transferformat für den E-Test folgende Information
beinhalten sollte:
•
Position und Form aller Endpunkt- und Mittelpunkt-Features einschließlich
aller Lochinformationen wie plated/unplated oder panel/image bzw.
via/component hole.
•
Maskeninformation
•
Layout-Information
•
Adjacency-Information
•
Netzinformation für alle positiven Datenelemente
•
Stepwerte
•
Für den reinen Adapterbau soll der Einsatz einer CAM-Station nicht notwendig
sein.
Diese Forderung macht eine Beurteilung der bisher verbreiteten Datenformate leicht.
Bis auf IPC-D-356A werden alle Formate von Herstellern propagiert, die an der
Vermarktung bestimmter Software-Produkte interessiert sind. Deswegen kommt eine
Beurteilung dieser Formate nicht daran vorbei, auch diese kurz unter die Lupe zu
nehmen.
Extended Gerber
Dieses reine Maschinenformat lässt sich zwar sehr bequem in eine CAM-Station
einlesen, es beinhaltet aber keinerlei E-Test-relevante Information. Als
Transferformat im obigen Sinne scheidet es aus.
Bemerkung: Polygone sind nicht ausreichend definiert, insbesondere bei
selbstdurchdringenden Konturen gibt es, was die Interpretation betrifft,
unterschiedliche Ansichten zwischen den verschiedenen konkurrierenden SoftwareHerstellern. Selbstdurchdringende Polygone machen das Leben schwer, und auf
deren Verwendung sollte verzichtet werden.
ODB++
ODB++ enthält weder Netznummern für das Layout noch Adjacency-Information.
Ohne eine CAM-Station wie Genesis können die aufgezählten Informationen also
nicht aus ODB++ extrahiert werden.
Die Genesis-Software von Frontline PCB arbeitet im Kern nach dem Raster-ImageVerfahren für die Netzlistenberechnung.
Dem großen Vorteil der unproblematischen Berechnung der Netzliste steht in allen
Outputs der schon erläuterte Nachteil fehlender Layout-Information für solche
Elemente, die durch negative Strukturen durchtrennt wurden.
ODB++ ist ein CAM-Format und in obigem Sinne als Transferformat für den E-Test
ungeeignet.
DPF
Hier müsste es eigentlich Ucam-Jobformat heißen, denn eine "flache" DPF-Datei
enthält, bis auf Netznummern und bestimmte Aperturattribute, nicht mehr Information
als Extended Gerber. Erst als kompletter Ucam-Job mit allen DPF-Lagen und
zugehörigem Jobdeskriptor wird aus einem Maschinenformat, welches ursprünglich
für reines Fotoplotting definiert wurde, ein für den E-Test verwendbares Format. In
diesem Sinne ist DPF eine Mischung aus Maschinensprache und CAM-Format.
DPF kann zwar negative Bahnelemente enthalten, BARCO fordert aber bislang, dass
diese vor der Netzlistenberechnung eliminiert werden müssen, sei es durch
Konturisierung oder durch Handarbeit, denn Ucam arbeitet unter Verwendung
analytischer Methoden.
Für ein Adapterbau-Modul bedeutet dies, dass zum Zeitpunkt des Imports eines
Ucam-Jobs davon ausgegangen werden kann, dass keine störenden negativen
Elemente mehr vorhanden sind. Die Layout-Information sieht also für den E-Test
besser aus.
In einem Ucam-Job gibt es keine Definition der Adjacency-Liste. Aus diesem Grund
muss vor dem Import eines Ucam-Jobs durch ein Adapterbau-Modul ein Output für
einen Fingertester erzeugt werden, der beim Import mit eingelesen wird. Alternativ
kann die IPC-D-356A-Ausgabe verwendet werden.
Ucam-Jobs enthalten im Wesentlichen Grafikdaten. Fertigungsdaten können
praktisch nicht gespeichert werden. Als Beispiel seien hier die Stepwerte genannt,
die implizit durch Blockblenden gegeben sind. Die dahinter stehende Semantik ist
aber nicht explizit definiert. Blockblenden können auch innerhalb eines Einzelbilder
auftreten.
Grundsätzlich besteht das Problem, dass die Interpretation der Ucam-Jobdaten von
einem grundlegenden Verständnis der Arbeitsweise von Ucam abhängt. Schon aus
diesem Grund scheidet DPF als Transferformat für den E-Test aus.
Fazit
Die bisherige Diskussion über Maschinen- und CAM-Formate ist aus der Sicht der
Netzliste für den E-Test nichts anderes als eine Diskussion über Rechenverfahren!
Die Datenformate und Rechenverfahren sind untrennbar miteinander verknüpft! Wer
immer ein bestimmtes Datenformat propagiert, propagiert gleichzeitig ein bestimmtes
Rechenverfahren! Alle Rechenverfahren haben Vor- und Nachteile. Diese betreffen
die CAM-Abteilung und die Testabteilung. Und wer ein bestimmtes Rechenverfahren
propagiert, trifft gleichzeitig die Entscheidung darüber, ob er die Nachteile der CAMAbteilung oder der Testabteilung aufbürdet!
Aus der Sicht des E-Tests werden die großen Hersteller von CAM-Produkten ihr
derzeitiges Konzept überdenken müssen.
IPC-D-356A
Dies ist das einzige in Europa verbreitete Datenformat, welches die Forderungen an
ein Transferformat halbwegs erfüllt. Zur Zeit entsteht es (leider) üblicherweise aus
dem "Reengineering" von Maschinen- bzw. CAM-Daten.
Ein wichtiger Vorteil ist die Unabhängigkeit vom Hersteller. Es gibt bislang aber ein
Manko, und dies betrifft die Schwierigkeit der Definition von Konturen. Bestimmte
Hersteller "vergewaltigen" die Trace-Records, indem eine Strichstärke von 0
verwendet wird (Bsp. GC-CAM) Diese Verfahrensweise bringt üblicherweise keine
Probleme beim Import, da die Syntax eingehalten wird. Je nach Software-Produkt
wird dann nur der Umriss oder sogar eine gefüllte Kontur dargestellt.
Die Darstellung von Konturen ist für den E-Test wichtig, denn Konturen sind bislang
der einzige Ausweg aus dem Netznummern-Dilemma bei negativen Draws. Die
Alternative wäre es, Konturen vorher mit der CAM-Station durch positive Draws zu
füllen, was die Datenmenge stark aufbläht.
GenCAM
Der eigentliche Irrsinn besteht darin, dass eine gigantische Maschinerie in Gang
gehalten wird, um Daten einer Abstraktionsebene auf eine andere Ebene
umzuwandeln.
Von der ursprünglichen Datenbasis des Design-Schritts werden primitive
Maschinendaten an die CAM-Abteilung gegeben. Viel Information geht dabei
verloren, um dann wieder "berechnet" zu werden (was dann nur teilweise gelingt).
Im Grunde wird ein Format gebraucht, welches der Tatsache Rechnung trägt, dass
im Laufe des Produktionsprozesses zusätzliche Informationen entstehen. Eine
Lösung wäre folgendes Modell:
Am Anfang gibt es eine Container-Datei mit allen Informationen über das Design.
Diese wird an die CAM-Abteilung oder an wen auch immer gegeben. Dort entstehen
weitere Informationen, die in den Container aufgenommen werden, usw.
Der Container kann durchaus wachsen, aber es wird auch nicht immer notwendig
sein, den ganzen Container weiter zu reichen.
Datentransfer sollte bidirektional möglich sein. Damit kann erreicht werden, dass
einmal errechnete Information immer wieder verfügbar ist. Für die Weitergabe von
Teilinformationen sind Filterprogramme denkbar, welche diese Teilinformation aus
dem Container extrahieren. Umgekehrt sollte die Aufnahme zusätzlich gewonnener
Information in den Container inkrementell erfolgen, also ohne bereits vorhandene
Information zu zerstören.
Aus der Sicht des E-Tests heißt dies beispielsweise, dass die Information, welche
durch den CAM-Schritt Endpunktoptimierung entsteht, in den Container zurück
fließen kann. Dasselbe gilt für die Adjacency-Liste. Die Erzeugung der IPC-D-356ADatei erfolgt dann aus dem Container nur noch mit Hilfe der Filterprogramme. Diese
stellen für jeden Produktionsschritt diejenige Information zusammen, die dafür
gebraucht wird. Für IPC-D-356A bedeutet dies, dass dieses Format nicht überflüssig
wird, sondern dass es sich leicht aus dem Container gewinnen lässt.
Hier setzt die GenCAM-Initiative an, über die es umfangreiche Information im IPCDokument [IPC-2511] gibt.
5. Dienstleistung
Die steigende Komplexität der Leiterplatten führt bei allen Beteiligten zu erhöhten
Anforderungen. Für den unabhängigen Dienstleister jedoch gibt es Schwierigkeiten,
welche der Inhouse-Testabteilung beim Leiterplattenhersteller eher fremd sind:
•
Beim Auftreten von Problemen kann der Leiterplattenhersteller die Platinen
zum externen Dienstleister schicken. Diese Ausweichmöglichkeit hat der
Dienstleister nicht. Von ihm wird ein 100%-Test erwartet, auch wenn sich
dieser für eine gegebene Leiterplatte als kompliziert erweist.
•
Der Leiterplattenhersteller, welcher den Test einer kleinen Serie beim
Dienstleister durchführen lässt, überlässt die Entscheidung darüber, ob ein
Fingertest oder ein Adaptertest gemacht wird, gerne dem Dienstleister. Das ist
legitim, denn oft erst vor Ort stellt sich heraus, welche Variante günstiger ist.
Das Problem fängt an, wenn der Dienstleister für beide Testvarianten ein
Angebot erstellt und sich der Fingertest als nur leicht günstiger erweist. Eine
Rückfrage beim Leiterplattenhersteller, ob Folgeaufträge zu erwarten sind,
führt dann gelegentlich zu Konflikten. Der Leiterplattenhersteller möchte
nämlich die günstigere Variante, in diesem Fall also den Fingertest, ist aber
nicht bereit, im Falle eines etwas größer ausfallenden Wiederholauftrags die
Adapterkosten zu zahlen. Das übliche Argument ist, dass er ja nicht wissen
könne, ob der Folgeauftrag kommt, er also nicht zwischen beiden Varianten
wählen möchte. Indem er die Entscheidung dem Dienstleister überlässt,
glaubt er, auch das Risiko der Folgekosten auf den Dienstleister abwälzen zu
können.
Hier muss der Dienstleister immer wieder klar machen, dass er nicht das
unternehmerische Risiko des Leiterplattenherstellers tragen wird.
•
Fehlende Information kann sich die Inhouse-Testabteilung in der Regel
schnell beschaffen. Der Dienstleister muss dieser Information oft hinterher
laufen.
•
Der Leiterplattenhersteller möchte vom Dienstleister ein Angebot haben, bevor
er den Testauftrag erteilt. Ein sinnvolles Angebot kann erst nach der
Netzlistenberechnung und Endpunktoptimierung gemacht werden. Dies
bedeutet einen nicht unerheblichen Aufwand in der CAM-Abteilung für die
reine Angebotserstellung. Eine Abgabe des Angebots ohne vorheriges
Datenstudium kann für den Dienstleister richtig teuer werden.
•
Wie bei jeder Art von Outsourcing in diesem Bereich ist der Datenaustausch
problematisch. Die herkömmliche Mailbox hat ausgedient, und der EurofileTransfer ist nicht sehr beliebt. Mindestens 95% der Daten werden per Email
übertragen. Hier gibt es auf Grund der Dateigrößen Probleme mit Providern
und Transferzeiten. DSL-Zugänge zum Internet sind zur Zeit noch nicht
flächendeckend verfügbar.
Die Liste lässt sich beliebig erweitern. Den Problemen stehen aber auch Chancen
gegenüber, und diese betreffen den Kunden der Leiterplattenhersteller. Das
traditionelle Beziehungsgeflecht zwischen dem Kunden, dem Leiterplattenhersteller
und dem externen Testhaus beginnt sich zu wandeln. Grund hierfür sind die
Adapterkosten, die eigentlich niemand übernehmen will. Im Zeitalter von ECommerce und Internet möchten sich viele Kleinabnehmer und Händler nicht gerne
an einen Leiterplattenhersteller binden. Sie holen sich über Email viele Angebote und
wählen dann aus. Speziell bei Leiterplatten mit mittlerer Losgröße werden die
Adapterkosten zum Problem. Für Wiederholaufträge scheidet im traditionellen Modell
der Wechsel des Leiterplattenherstellers praktisch aus, da ein anderer Hersteller
wieder die einmaligen Adapterkosten einberechnen würde.
Immer mehr Abnehmer bestellen aus diesem Grund ungetestete Leiterplatten und
erteilen den Auftrag für den Adapter und den elektrischen Test direkt dem
unabhängigen Testhaus. Die Vorteile für den Abnehmer liegen auf der Hand:
einmalige Adapterkosten und Unabhängigkeit vom Hersteller. Es ist klar, dass hier
ein Interessenkonflikt entsteht, denn der Leiterplattenhersteller gibt mit der Lieferung
ungetesteter Platinen auch die Qualität seiner Produktion preis.
Bibliografie
AS96: Andreas Stadtmüller, Fine-Pitch-Test auch mit Single-Density-Testern? ZEVLeiterplatten,1-2/1996.
GMM99: VDE/VDI-Gesellschaft Mikroelektronik, Mikro- und Feinwerktechnik, Der
Europäische Trendbericht 1999 über Leiterplatten mit hohen Integrationsdichten,
1999.
IPC -2511: Generic Requirements for Implementation of Product Manufacturing
Description Data and Transfer Methodology.
TRI00: Dr. Uwe Trier, Prüfkosten sparen durch Systemintegration, ZEV-Leiterplatten
5/2000
VDL99: Verband der Leiterplattenindustrie e.V., Projektgruppe: Grenzen der
Funktionsprüfung, Broschüre, 1999.
WIE00: Arnold Wiemers, Einige Anmerkungen zu Blendentellern, PLUS 6/2000, S.
863-864.
© 2000 Track Test GmbH
Document
Kategorie
Seele and Geist
Seitenansichten
30
Dateigröße
227 KB
Tags
1/--Seiten
melden