Ars Regendi Simulation Forum

Full Version: Fischlinsen
You're currently viewing a stripped down version of our content. View the full version with proper formatting.
Ich habe es schon lange vermutet, aber seit der Coronakrise mit den vielen Webcam-Interviews bin ich mir sicher: Die meisten Leute sehen scheiße aus, wenn sie mit Webcams oder Smartphone-Kameras aufgenommen werden. Wie in einem konkaven Spiegel. Anders ist das bei richtigen Fotoapparaten und Fernsehkameras, sie bilden offenbar ein Gesicht so ab, wie wir es mit den eigenen Augen sehen. Was mich nun wundert, ist, dass dieses Phänomen so wenig thematisiert wird und dass obendrein anscheinend nichts unternommen wird, um das Problem zu beheben, obwohl sich gerade die Smartphone-Hersteller atemberaubende Wettrennen um die besten Kameras liefern. Hat dazu jemand eine Erklärung?
Für rein einfarbige Bilder wäre das machbar. Allerdings gibt es einen Effekt der Kompensiert werden muss:
https://de.wikipedia.org/wiki/Chromatische_Aberration

"Endziel" was noch zu teuer wären Monocromatische Arrays in unterschiedlichen Farben. Dazu noch die nötige Rechenleistung, um es zu einem Bild zu machen.
Das ist im übrigen auch der Grund warum in der Astronomie Spiegeltelekope verwendet werden und Linseltelekope weitgehend Irrelevant dort sind.
Hmm, danke, in dem Link ist aber nichts über dieses Wölbungseffekt drin Noplan

Malone Wrote:
Hmm, danke, in dem Link ist aber nichts über dieses Wölbungseffekt drin Noplan

Ich hake mal bei nächster gelegenheit mal intensiver nach.
Das ware die naheliegenste vermutung, weil das nämlich eine bildkorrektur erfordert damit eine verzerrung bewirken könnte.
Die software gute auf eine Kamera anzupassen ist halt Entwicklungsleistung, die man sich gerne einspart...

so ich habe mal einen Kumpel angeschrieben, der optische Bauteile spritzgießt. Der von mir Vermutete Effekt spielt tatsächlich mit eine Rolle, aber keine so große wie ein anderer:
Die Linse ist klein und der Abstand zum Sensor sehr gering.
Wenn der Abstand von Linse und optischem Sensor ist sonst meistens Größer und fällt dann nicht so ins Gewicht wie die Fertigungsschankungen. Die Smartphonehersteller geben meistens wenig darüber bekannt wie ihre softwarebildkorrektur funktioniert. Rechnerleistungsmäßig ist es jodoch am einfachsten die jeweiligen pixel dann so zu adressieren, dass sie dann ein scheinbar unverzerrtes bild ausgeben. Wenn dann nur ein paar µm der abstand nicht stimmt durch Fertigungsschwankungen etc. stimmt die fehlerkorrektur des Bildsensors nicht mehr. Weil man aber dem Smartphone mehr Akkuleben geben will und mehr Rechenleistung da eher kontraproduktiv ist, setzt man einfach darauf, dass das eh niemandem auffällt.
Noch dateiliertere Antworten gibt es aber nciht von mir, da das thema wieder zu komplex ist um es auf einfachere Erklärugnen herunterzubrechen, die du als zufriedenstellende Antwort auffassen würdest. Abgesehen davon muss ich gelegentlich auch wieder sowas machen wie Arbeiten.
Ich bin zufällig auf das Stichwort Verzeichnung gestoßen und habe da einige interessante Artikel wie diesen gefunden. Und das ist mal krass, nämlich dass viele Leute offenbar nicht checken, dass sie eigentlich anders aussehen, obwohl sie ja eigentlich Selfies bekannter Leute mit deren eigentlichem Erscheinungsbild vergleichen können. Ein generell interessantes Phänomen, dem oberflächlichen Eindruck bis zum Verderben zu vertrauen, anstatt sich Gedanken zu machen, worin die Unstimmigkeit begründet sein könnte:

Quote:
In den USA verzeichnet man seit geraumer Zeit einen signifikanten Anstieg an Anmeldungen für Schönheits-OP’s bei Jugendlichen, die ihr Selfie als Beweis für eine „große Nase“ und eine „hohe Stirn“ zur Vorbesprechung mitnehmen. Sie wollen ihr Aussehen so verändern, dass sie auf Selfies gut aussehen!

Reference URL's