Hallo,
ich versuche die Gitterkonstante eines Kamerasensors zu bestimmen, indem ich das Beugungsbild eines Laserstrahls auswerte, den ich senkrecht einstrahle, und zwar durch ein kleines Loch in einem ebenen Schirm, der ich parallel zum Sensor aufgestellt ist.
Ich bekomme dabei das erwartete Punktraster, aus dem ich über den Abstand Sensor - Schirm die Winkel der verschiedenen Ordnungen m nach sin(phi) = ±m * lambda/a und daraus die Gitterkonstante bestimme. Das klappt soweit auch sehr gut.
Aber: Das Punktraster zeigt eine leichte 'Kissenverzerrung', d.h. Punkte auf den Diagonalen (mx = my) haben sowohl in X- als auch in Y-Richtung etwas größere Auslenkungen als diejenigen mit entweder mx = 0 oder my = 0. Der Effekt nimmt mit der Ordnung zu, so dass z.B. die Verbindung der Punkte mit my = 4 keine Gerade mehr ergibt, sondern deutlich gekrümmt ist. Nur die Verbindung der Punkte mit mx = 0 und der mit my = 0 sind Geraden.

Nach meinem Verständnis sollten aber alle Punkte auf senkrechten und waagrechten Geraden liegen, oder habe ich da etwas übersehen?
Gruß, Erwin
Wäre evtl. auch die Form der Sensoroberfläche, die ja nicht eben ist, als Ursache denkbar? ─ user1723b9 12.03.2023 um 15:39