Domain minideals.de kaufen?
Wir ziehen mit dem Projekt minideals.de um. Sind Sie am Kauf der Domain minideals.de interessiert?
Schicken Sie uns bitte eine Email an
domain@kv-gmbh.de oder rufen uns an: 0541-76012653.
Produkte zum Begriff Validität:

Mbwilo, Eva: Zuverlässigkeit und Validität der histologischen Diagnose des Rhabdomyosarkoms
Mbwilo, Eva: Zuverlässigkeit und Validität der histologischen Diagnose des Rhabdomyosarkoms

Zuverlässigkeit und Validität der histologischen Diagnose des Rhabdomyosarkoms , Bücher > Bücher & Zeitschriften

Preis: 26.90 € | Versand*: 0 €
Schlick, Leonie: Validität der Organisationsaufstellung als Ergänzung zur Assessment-Center-Methode
Schlick, Leonie: Validität der Organisationsaufstellung als Ergänzung zur Assessment-Center-Methode

Bachelorarbeit aus dem Jahr 2013 im Fachbereich Psychologie - Arbeit, Betrieb, Organisation, Note: 1,3, Nordakademie Hochschule der Wirtschaft in Elmshorn, Veranstaltung: Wirtschaftspsychologie, Sprache: Deutsch, Abstract: Diese Arbeit widmet sich der Personalauswahl in großen Unternehmen und untersucht, welche Anforderungsmerkmale eines Bewerbers ein Assessment-Center apprüft, welche es vernachlässigt und ob die aus dem therapeutischen Bereich stammende Organisationsaufstellung diese ergänzend überprüfen kann. Anhand von Experteninterviews wird die Hypothese, dass die Organisationsaufstellung das Assessment-Center hinsichtlich der Team- und Organisationspassung ergänzen kann, überprüft. Es wird die aus der qualitativen Sozialforschung stammende Methode "leitfadengestütztes Experteninterview" zur Validierung verwendet. Entsprechend wird detailliert der Aufbau eines Leitfadens sowie eine Volltranskript-Auswertung nach Meuser und Nagel beschrieben. , Studium & Erwachsenenbildung > Fachbücher, Lernen & Nachschlagen

Preis: 52.95 € | Versand*: 0 €
Stockinger, Johannes: Der Einsatz von Personalauswahlinstrumenten in der Praxis. Analyse der Validität
Stockinger, Johannes: Der Einsatz von Personalauswahlinstrumenten in der Praxis. Analyse der Validität

Der Einsatz von Personalauswahlinstrumenten in der Praxis. Analyse der Validität , Schule & Ausbildung > Fachbücher, Lernen & Nachschlagen

Preis: 18.95 € | Versand*: 0 €
Anonymous: Die prädiktive Validität der Big-5-Faktoren in Bezug auf Berufserfolg
Anonymous: Die prädiktive Validität der Big-5-Faktoren in Bezug auf Berufserfolg

Die prädiktive Validität der Big-5-Faktoren in Bezug auf Berufserfolg , Studienarbeit aus dem Jahr 2014 im Fachbereich Psychologie - Arbeit, Betrieb, Organisation, Note: 1.0, Technische Universität Dresden, Sprache: Deutsch, Abstract: Diese Hausarbeit beschäftigt sich mit der Frage, welche Persönlichkeitseigenschaften als Prädikatoren für Berufserfolg genutzt werden können und wie sie zu bewerten sind. Ob wir es wollen oder nicht, der Beruf nimmt einen zentralen Stellenwert in unserem Leben ein. Neben der wirtschaftlichen Bedeutung ermöglicht die Ausübung eines Berufs auch eine ideelle Erfüllung. Ein Großteil des Lebens wird in einem beruflichen Kontext ablaufen und deshalb ist es vielen Menschen von hoher Priorität in dieser Zeit auch erfolgreich und zufrieden zu sein. Somit ist die Prognose von Berufserfolg von wichtiger Bedeutung, denn der Berufserfolg seinerseits ist ein Prädiktor für Wohlbefinden im Sinne der allgemeinen Lebenszufriedenheit oder verschiedener Bereichszufriedenheiten. Bei fehlendem Berufserfolg treten negative Ereignisse ein, wie Demotivierung, Leistungsabfall bis hin zu psychosomatischen Beschwerden. Auf der anderen Seite ist Berufserfolg von Angestellten ein zentraler Punkt für Unternehmen und Organisationen. Der Berufserfolg von den Angestellten zahlt sich für den Arbeitgeber in Form von besserer Leistung, Arbeitsmotivation und organisationaler Bindung aus. Das Unternehmen hat somit auch ein starkes Interesse geeignete Bewerber auszuwählen und Angestellte weiter zu fördern, denn die Leistungsstärksten eines Unternehmens haben eine doppelt so hohe Leistung wie der Leistungsschwächste. , Studium & Erwachsenenbildung > Fachbücher, Lernen & Nachschlagen

Preis: 15.95 € | Versand*: 0 €

Ist Validität eine kontinuierliche Variable?

Nein, Validität ist keine kontinuierliche Variable. Validität bezieht sich auf die Genauigkeit und Gültigkeit einer Messung oder e...

Nein, Validität ist keine kontinuierliche Variable. Validität bezieht sich auf die Genauigkeit und Gültigkeit einer Messung oder eines Tests. Es handelt sich um eine qualitative Eigenschaft, die angibt, inwieweit ein Messinstrument das misst, was es messen soll. Validität kann als hoch oder niedrig bewertet werden, aber es gibt keine kontinuierliche Skala, auf der sie gemessen werden kann.

Quelle: KI generiert von FAQ.de

Wie berechne ich die Validität auf SPSS?

Um die Validität auf SPSS zu berechnen, kannst du verschiedene statistische Verfahren verwenden. Eine Möglichkeit ist die Berechnu...

Um die Validität auf SPSS zu berechnen, kannst du verschiedene statistische Verfahren verwenden. Eine Möglichkeit ist die Berechnung des Korrelationskoeffizienten zwischen zwei Variablen, um die Konstruktvalidität zu überprüfen. Du kannst auch eine Faktorenanalyse durchführen, um die Konvergenz- und Diskriminanzvalidität zu untersuchen. Darüber hinaus kannst du auch die interne Konsistenz einer Skala mithilfe des Cronbach's Alpha-Koeffizienten überprüfen.

Quelle: KI generiert von FAQ.de

Welche Beispielaufgaben gibt es für die Überprüfung der Objektivität, Reliabilität und Validität?

Für die Überprüfung der Objektivität könnte man beispielsweise eine Aufgabe konstruieren, bei der verschiedene Personen unabhängig...

Für die Überprüfung der Objektivität könnte man beispielsweise eine Aufgabe konstruieren, bei der verschiedene Personen unabhängig voneinander zu einem bestimmten Thema eine Meinung oder Einschätzung abgeben sollen. Die Übereinstimmung der Antworten könnte dann als Maß für die Objektivität dienen. Für die Überprüfung der Reliabilität könnte man eine Aufgabe konstruieren, die mehrfach an eine Gruppe von Personen gestellt wird und die Antworten vergleichen. Wenn die Antworten der Personen über die verschiedenen Durchgänge hinweg konsistent sind, spricht das für eine hohe Reliabilität. Für die Überprüfung der Validität könnte man eine Aufgabe konstruieren, bei der man das zu messende Konstrukt direkt erfasst. Zum Beispiel könnte man bei einer Aufgabe zur Messung der mathematischen Fähigkeiten die

Quelle: KI generiert von FAQ.de

Inwiefern beeinflusst die Validität von Daten die Entscheidungsfindung in den Bereichen Wissenschaft, Technologie und Wirtschaft?

Die Validität von Daten ist entscheidend für die Qualität von Entscheidungen in den Bereichen Wissenschaft, Technologie und Wirtsc...

Die Validität von Daten ist entscheidend für die Qualität von Entscheidungen in den Bereichen Wissenschaft, Technologie und Wirtschaft. Fehlende Validität kann zu falschen Schlussfolgerungen führen und somit die Effektivität von Entscheidungen beeinträchtigen. In der Wissenschaft können falsche Daten zu fehlerhaften Theorien und Hypothesen führen, während in der Technologie und Wirtschaft falsche Daten zu ineffizienten Prozessen und Verlusten führen können. Daher ist es wichtig, dass Entscheidungsträger in diesen Bereichen sicherstellen, dass die Daten, auf denen ihre Entscheidungen basieren, valide und zuverlässig sind.

Quelle: KI generiert von FAQ.de
Anonym: Prüfungsangst in der Schule. Die Validität des schulischen Bewertungssystems unter der Prüfungsangst
Anonym: Prüfungsangst in der Schule. Die Validität des schulischen Bewertungssystems unter der Prüfungsangst

Prüfungsangst in der Schule. Die Validität des schulischen Bewertungssystems unter der Prüfungsangst , Bücher > Bücher & Zeitschriften

Preis: 15.95 € | Versand*: 0 €
Gormanns, Lisa-Marie: Die Online-Inhaltsanalyse. Besonderheiten, Herausforderungen und Auswirkungen auf die Gütekriterien Objektivität, Reliabilität und Validität
Gormanns, Lisa-Marie: Die Online-Inhaltsanalyse. Besonderheiten, Herausforderungen und Auswirkungen auf die Gütekriterien Objektivität, Reliabilität und Validität

Die Online-Inhaltsanalyse. Besonderheiten, Herausforderungen und Auswirkungen auf die Gütekriterien Objektivität, Reliabilität und Validität , Bücher > Bücher & Zeitschriften

Preis: 17.95 € | Versand*: 0 €
Starke, Markus: Das Assessment-Center als Instrument der Personalauswahl bei Führungskräften des Pflegedienstes im Krankenhaus. Validität und Nutzen
Starke, Markus: Das Assessment-Center als Instrument der Personalauswahl bei Führungskräften des Pflegedienstes im Krankenhaus. Validität und Nutzen

Das Assessment-Center als Instrument der Personalauswahl bei Führungskräften des Pflegedienstes im Krankenhaus. Validität und Nutzen , Bücher > Bücher & Zeitschriften

Preis: 32.95 € | Versand*: 0 €
Bachelorarbeit aus dem Jahr 2003 im Fachbereich Pädagogik - Heilpädagogik, Sonderpädagogik, Note: 1,3, FernUniversität Hagen (Institut für Erziehungswissenschaft und Bildungsforschung), Sprache: Deutsch, Abstract: Gestützte Kommunikation (Facilitated Communication FC) ist ein umstrittenes Verfahren zur Unterstützung autistischer Menschen, welches es Personen ermöglicht, die sonst weder sprechen noch schreiben können, schriftliche Aussagen formulieren. Dabei werden teilweise erstaunliche Fähigkeiten und Einsichten offenbart. Ein berühmtes Beispiel ist der autistische junge Mann Birger Sellin, von dem einige Texte analysiert werden.
Es gibt eine breite Kritik an der Gestützten Kommunikation, die unterstellt, dass es sich bei den erzeugten Texten eigentlich um Produkte der Hilfepersonen handelt, denen die unterstützten Personen suggestiv-ideomotorisch folgen.
Die Arbeit beleuchtet einige Erfahrungen mit Gestützter Kommunikation, stellt wichtige Theoriefundamente für die Erklärung des Phänomens zusammen und analysiert eine empirische Untersuchung zur Validität des Verfahrens. (Wenke, Matthias)
Bachelorarbeit aus dem Jahr 2003 im Fachbereich Pädagogik - Heilpädagogik, Sonderpädagogik, Note: 1,3, FernUniversität Hagen (Institut für Erziehungswissenschaft und Bildungsforschung), Sprache: Deutsch, Abstract: Gestützte Kommunikation (Facilitated Communication FC) ist ein umstrittenes Verfahren zur Unterstützung autistischer Menschen, welches es Personen ermöglicht, die sonst weder sprechen noch schreiben können, schriftliche Aussagen formulieren. Dabei werden teilweise erstaunliche Fähigkeiten und Einsichten offenbart. Ein berühmtes Beispiel ist der autistische junge Mann Birger Sellin, von dem einige Texte analysiert werden. Es gibt eine breite Kritik an der Gestützten Kommunikation, die unterstellt, dass es sich bei den erzeugten Texten eigentlich um Produkte der Hilfepersonen handelt, denen die unterstützten Personen suggestiv-ideomotorisch folgen. Die Arbeit beleuchtet einige Erfahrungen mit Gestützter Kommunikation, stellt wichtige Theoriefundamente für die Erklärung des Phänomens zusammen und analysiert eine empirische Untersuchung zur Validität des Verfahrens. (Wenke, Matthias)

Bachelorarbeit aus dem Jahr 2003 im Fachbereich Pädagogik - Heilpädagogik, Sonderpädagogik, Note: 1,3, FernUniversität Hagen (Institut für Erziehungswissenschaft und Bildungsforschung), Sprache: Deutsch, Abstract: Gestützte Kommunikation (Facilitated Communication FC) ist ein umstrittenes Verfahren zur Unterstützung autistischer Menschen, welches es Personen ermöglicht, die sonst weder sprechen noch schreiben können, schriftliche Aussagen formulieren. Dabei werden teilweise erstaunliche Fähigkeiten und Einsichten offenbart. Ein berühmtes Beispiel ist der autistische junge Mann Birger Sellin, von dem einige Texte analysiert werden. Es gibt eine breite Kritik an der Gestützten Kommunikation, die unterstellt, dass es sich bei den erzeugten Texten eigentlich um Produkte der Hilfepersonen handelt, denen die unterstützten Personen suggestiv-ideomotorisch folgen. Die Arbeit beleuchtet einige Erfahrungen mit Gestützter Kommunikation, stellt wichtige Theoriefundamente für die Erklärung des Phänomens zusammen und analysiert eine empirische Untersuchung zur Validität des Verfahrens. , Grundlagen, ausgewählte Studien und Erklärungsversuche zu einem umstrittenen Phänomen , Bücher > Bücher & Zeitschriften , Auflage: 3. Auflage, Erscheinungsjahr: 20070814, Produktform: Kartoniert, Beilage: Paperback, Autoren: Wenke, Matthias, Auflage: 07003, Auflage/Ausgabe: 3. Auflage, Seitenzahl/Blattzahl: 48, Keyword: FC; Grandin; Sellin; FacilitatedCommunication, Warengruppe: HC/Sonderpädagogik, Behindertenpädagogik, Fachkategorie: Sonderpädagogik, Text Sprache: ger, UNSPSC: 49019900, Warenverzeichnis für die Außenhandelsstatistik: 49019900, Länge: 210, Breite: 148, Höhe: 4, Gewicht: 84, Produktform: Kartoniert, Genre: Sozialwissenschaften/Recht/Wirtschaft, Genre: Sozialwissenschaften/Recht/Wirtschaft, Herkunftsland: DEUTSCHLAND (DE), Katalog: deutschsprachige Titel, Katalog: Gesamtkatalog, Katalog: Lagerartikel, Book on Demand, ausgew. Medienartikel, Unterkatalog: AK, Unterkatalog: Bücher, Unterkatalog: Hardcover,

Preis: 27.95 € | Versand*: 0 €

Wie beeinflusst die Verwendung von Zufallsauswahlverfahren in der Psychologie die Validität und Reliabilität von Forschungsergebnissen?

Die Verwendung von Zufallsauswahlverfahren in der Psychologie trägt zur Validität von Forschungsergebnissen bei, da sie sicherstel...

Die Verwendung von Zufallsauswahlverfahren in der Psychologie trägt zur Validität von Forschungsergebnissen bei, da sie sicherstellt, dass die Stichprobe repräsentativ für die Population ist. Dies erhöht die Generalisierbarkeit der Ergebnisse. Darüber hinaus trägt die Zufallsauswahl zur Reliabilität bei, da sie die Wahrscheinlichkeit von Verzerrungen oder systematischen Fehlern in der Stichprobe verringert. Durch die Verwendung von Zufallsauswahlverfahren können Forscher sicherstellen, dass ihre Ergebnisse nicht aufgrund von Voreingenommenheit oder unerwünschten Einflüssen verzerrt werden, was die Glaubwürdigkeit und Zuverlässigkeit ihrer Forschungsergebnisse erhöht.

Quelle: KI generiert von FAQ.de

Wie kann man die Validität von Informationen in den Bereichen Wissenschaft, Technologie und Wirtschaft sicherstellen?

Um die Validität von Informationen in den Bereichen Wissenschaft, Technologie und Wirtschaft sicherzustellen, ist es wichtig, Quel...

Um die Validität von Informationen in den Bereichen Wissenschaft, Technologie und Wirtschaft sicherzustellen, ist es wichtig, Quellen kritisch zu prüfen und zu überprüfen, ob sie von vertrauenswürdigen und glaubwürdigen Experten stammen. Zudem ist es wichtig, die Methoden und Daten, die zur Unterstützung der Informationen verwendet werden, zu überprüfen, um sicherzustellen, dass sie wissenschaftlichen Standards entsprechen. Darüber hinaus ist es wichtig, sich auf aktuelle und aktualisierte Informationen zu verlassen, um sicherzustellen, dass die Daten und Fakten relevant und korrekt sind. Schließlich ist es wichtig, verschiedene Quellen zu konsultieren und verschiedene Perspektiven zu berücksichtigen, um sicherzustellen, dass die Informationen aus verschiedenen Blickwinkeln betrachtet werden.

Quelle: KI generiert von FAQ.de

Wie kann man die Validität von Forschungsergebnissen in den Bereichen Wissenschaft, Technologie und Medizin sicherstellen?

Die Validität von Forschungsergebnissen in den Bereichen Wissenschaft, Technologie und Medizin kann durch die Anwendung strenger w...

Die Validität von Forschungsergebnissen in den Bereichen Wissenschaft, Technologie und Medizin kann durch die Anwendung strenger wissenschaftlicher Methoden und Protokolle sichergestellt werden. Dazu gehören die Verwendung von Kontrollgruppen, Doppelblindstudien und statistische Analysen, um sicherzustellen, dass die Ergebnisse zuverlässig sind. Zudem ist eine unabhängige Überprüfung und Reproduzierbarkeit der Ergebnisse durch andere Forscher entscheidend, um die Validität zu bestätigen. Schließlich ist es wichtig, dass Forscher ihre Methoden und Ergebnisse transparent und vollständig veröffentlichen, um eine kritische Bewertung und Diskussion zu ermöglichen.

Quelle: KI generiert von FAQ.de

Wie beeinflusst der Einsatz von Randomisierungsmethoden in klinischen Studien die Zuverlässigkeit und Validität der Ergebnisse?

Der Einsatz von Randomisierungsmethoden in klinischen Studien trägt zur Zuverlässigkeit der Ergebnisse bei, da sie sicherstellen,...

Der Einsatz von Randomisierungsmethoden in klinischen Studien trägt zur Zuverlässigkeit der Ergebnisse bei, da sie sicherstellen, dass die Teilnehmer zufällig einer Behandlungsgruppe zugewiesen werden. Dadurch werden potenzielle Störfaktoren minimiert und die Wahrscheinlichkeit von Verzerrungen in den Ergebnissen verringert. Die Randomisierung erhöht auch die Validität der Ergebnisse, da sie sicherstellt, dass die Behandlungsgruppen vergleichbar sind und die Effekte der Interventionen objektiv bewertet werden können. Insgesamt trägt der Einsatz von Randomisierungsmethoden dazu bei, die Robustheit und Glaubwürdigkeit der Ergebnisse klinischer Studien zu verbessern.

Quelle: KI generiert von FAQ.de
Bachelorarbeit aus dem Jahr 2006 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,7, Universität Siegen (Sprach-. Liteartur- und Medienwissenschaften), Sprache: Deutsch, Abstract: Wir leben in einer Wissensgesellschaft. Beständig wachsende und zudem vernetzte Wissensbestände sorgen für ein hohes gesellschaftliches Bildungsniveau. Doch wie wird neues Wissen kommuniziert? Welche Rolle spielen dabei die Neuen Medien? 15 Jahre nach Beginn des kommerziellen World Wide Web ist es nun Zeit, ein erstes Fazit zu ziehen. Worin liegen die Vor- und Nachteile des Web gegenüber den herkömmlichen Medien? 

Die Informationsgesellschaft stellt hohe Anforderungen an die Kommunikationsfähigkeiten ihrer Mitglieder. Wo es früher eine überschaubare Menge an Zeitungen und Zeitschriften gab, die man regelmäßig als zuverlässige Informationsquelle heranzog, stellt das Internet nun sowohl den Leser als auch den Autor vor neue Herausforderungen. Der Autor muss sich mehr denn je gegenüber der stetig wachsenden Konkurrenz behaupten; der Leser wiederum steht vor einer fast unüberschaubaren Vielzahl von Angeboten im Netz. Die Kommerzialisierung des Internets führte in den letzten Jahren zu einer wahren Informationsflut. Einerseits wächst die Menge und Vielfältigkeit der Angebote, andererseits damit Zweifel an der Qualität der dargebotenen Informationen auf. Im Internet steht der Qualitätsjournalismus in direkter Konkurrenz zur Laienkommunikation. 

Es wurde in der Vergangenheit vielfach untersucht, mit welchen Mitteln fachliche Inhalte journalistisch für ein Massenpublikum aufbereitet werden. An die Neuen Medien ist die Hoffnung geknüpft, dass sie eine unmittelbare und unverzerrte Wissensvermittlung ermöglichen können; unter anderem, weil sie nicht im gleichen Maße unter kommerziellen Zwängen stehen. Die professionellen Journalisten besitzen heute kein Vermittlungsmonopol mehr. Stattdessen gibt es im Internet ein Nebeneinander von professioneller und partizipativer Wissensvermittlung. Die Fragen, die sich in diesem Zusammenhang stellen, sind folgende: Wie kann die Validität von Informationen nachgeprüft werden? Wieviel Realität wird verfälscht? Welche Wissenstransformationen gibt es? Gibt es nur massenmediale Transformationen oder weisen auch die weniger professionellen Nischenangebote diese Verzerrungen auf ¿ wenn ja, in welcher Art? (Henning, Theresa)
Bachelorarbeit aus dem Jahr 2006 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,7, Universität Siegen (Sprach-. Liteartur- und Medienwissenschaften), Sprache: Deutsch, Abstract: Wir leben in einer Wissensgesellschaft. Beständig wachsende und zudem vernetzte Wissensbestände sorgen für ein hohes gesellschaftliches Bildungsniveau. Doch wie wird neues Wissen kommuniziert? Welche Rolle spielen dabei die Neuen Medien? 15 Jahre nach Beginn des kommerziellen World Wide Web ist es nun Zeit, ein erstes Fazit zu ziehen. Worin liegen die Vor- und Nachteile des Web gegenüber den herkömmlichen Medien? Die Informationsgesellschaft stellt hohe Anforderungen an die Kommunikationsfähigkeiten ihrer Mitglieder. Wo es früher eine überschaubare Menge an Zeitungen und Zeitschriften gab, die man regelmäßig als zuverlässige Informationsquelle heranzog, stellt das Internet nun sowohl den Leser als auch den Autor vor neue Herausforderungen. Der Autor muss sich mehr denn je gegenüber der stetig wachsenden Konkurrenz behaupten; der Leser wiederum steht vor einer fast unüberschaubaren Vielzahl von Angeboten im Netz. Die Kommerzialisierung des Internets führte in den letzten Jahren zu einer wahren Informationsflut. Einerseits wächst die Menge und Vielfältigkeit der Angebote, andererseits damit Zweifel an der Qualität der dargebotenen Informationen auf. Im Internet steht der Qualitätsjournalismus in direkter Konkurrenz zur Laienkommunikation. Es wurde in der Vergangenheit vielfach untersucht, mit welchen Mitteln fachliche Inhalte journalistisch für ein Massenpublikum aufbereitet werden. An die Neuen Medien ist die Hoffnung geknüpft, dass sie eine unmittelbare und unverzerrte Wissensvermittlung ermöglichen können; unter anderem, weil sie nicht im gleichen Maße unter kommerziellen Zwängen stehen. Die professionellen Journalisten besitzen heute kein Vermittlungsmonopol mehr. Stattdessen gibt es im Internet ein Nebeneinander von professioneller und partizipativer Wissensvermittlung. Die Fragen, die sich in diesem Zusammenhang stellen, sind folgende: Wie kann die Validität von Informationen nachgeprüft werden? Wieviel Realität wird verfälscht? Welche Wissenstransformationen gibt es? Gibt es nur massenmediale Transformationen oder weisen auch die weniger professionellen Nischenangebote diese Verzerrungen auf ¿ wenn ja, in welcher Art? (Henning, Theresa)

Bachelorarbeit aus dem Jahr 2006 im Fachbereich Medien / Kommunikation - Multimedia, Internet, neue Technologien, Note: 1,7, Universität Siegen (Sprach-. Liteartur- und Medienwissenschaften), Sprache: Deutsch, Abstract: Wir leben in einer Wissensgesellschaft. Beständig wachsende und zudem vernetzte Wissensbestände sorgen für ein hohes gesellschaftliches Bildungsniveau. Doch wie wird neues Wissen kommuniziert? Welche Rolle spielen dabei die Neuen Medien? 15 Jahre nach Beginn des kommerziellen World Wide Web ist es nun Zeit, ein erstes Fazit zu ziehen. Worin liegen die Vor- und Nachteile des Web gegenüber den herkömmlichen Medien? Die Informationsgesellschaft stellt hohe Anforderungen an die Kommunikationsfähigkeiten ihrer Mitglieder. Wo es früher eine überschaubare Menge an Zeitungen und Zeitschriften gab, die man regelmäßig als zuverlässige Informationsquelle heranzog, stellt das Internet nun sowohl den Leser als auch den Autor vor neue Herausforderungen. Der Autor muss sich mehr denn je gegenüber der stetig wachsenden Konkurrenz behaupten; der Leser wiederum steht vor einer fast unüberschaubaren Vielzahl von Angeboten im Netz. Die Kommerzialisierung des Internets führte in den letzten Jahren zu einer wahren Informationsflut. Einerseits wächst die Menge und Vielfältigkeit der Angebote, andererseits damit Zweifel an der Qualität der dargebotenen Informationen auf. Im Internet steht der Qualitätsjournalismus in direkter Konkurrenz zur Laienkommunikation. Es wurde in der Vergangenheit vielfach untersucht, mit welchen Mitteln fachliche Inhalte journalistisch für ein Massenpublikum aufbereitet werden. An die Neuen Medien ist die Hoffnung geknüpft, dass sie eine unmittelbare und unverzerrte Wissensvermittlung ermöglichen können; unter anderem, weil sie nicht im gleichen Maße unter kommerziellen Zwängen stehen. Die professionellen Journalisten besitzen heute kein Vermittlungsmonopol mehr. Stattdessen gibt es im Internet ein Nebeneinander von professioneller und partizipativer Wissensvermittlung. Die Fragen, die sich in diesem Zusammenhang stellen, sind folgende: Wie kann die Validität von Informationen nachgeprüft werden? Wieviel Realität wird verfälscht? Welche Wissenstransformationen gibt es? Gibt es nur massenmediale Transformationen oder weisen auch die weniger professionellen Nischenangebote diese Verzerrungen auf ¿ wenn ja, in welcher Art? , Online-Ausgaben von Massenmedien und Nischenangebote im Vergleich , Bücher > Bücher & Zeitschriften , Auflage: 3. Auflage, Erscheinungsjahr: 20080519, Produktform: Kartoniert, Beilage: Paperback, Autoren: Henning, Theresa, Auflage: 08003, Auflage/Ausgabe: 3. Auflage, Seitenzahl/Blattzahl: 52, Warengruppe: HC/Medienwissenschaften/Sonstiges, Fachkategorie: Grafische und digitale Media-Anwendungen, Text Sprache: ger, UNSPSC: 49019900, Warenverzeichnis für die Außenhandelsstatistik: 49019900, Verlag: GRIN Verlag, Länge: 210, Breite: 148, Höhe: 5, Gewicht: 90, Produktform: Kartoniert, Genre: Sozialwissenschaften/Recht/Wirtschaft, Genre: Sozialwissenschaften/Recht/Wirtschaft, eBook EAN: 9783638026147, Herkunftsland: DEUTSCHLAND (DE), Katalog: deutschsprachige Titel, Katalog: Gesamtkatalog, Katalog: Lagerartikel, Book on Demand, ausgew. Medienartikel, Unterkatalog: AK, Unterkatalog: Bücher, Unterkatalog: Hardcover,

Preis: 27.95 € | Versand*: 0 €
Studienarbeit aus dem Jahr 2006 im Fachbereich Kunst - Kunsthandwerk, Note: 1,0, Universität Trier, Veranstaltung: Seminar Symbol, Allegorie, Emblem, Sprache: Deutsch, Abstract: Die kunsthistorische Methode der Ikonologie, in den 30er und 40er Jahren des 20. Jahrhunderts von Aby Warburg und Erwin Panofsky entwickelt, bereicherte die Forschung ungemein und lieferte neue, um nicht zu sagen bahnbrechende, Erkenntnisse. Doch im Laufe der Jahre wurden immer mehr Fragen aufgeworfen, die nicht nur die Methode an sich, sondern auch ihre Ergebnisse bezweifeln.
Gerade in den Interpretationen Eddy de Jonghs zur holländischen Genremalerei des 17. Jahrhunderts wird man mit Problemen konfrontiert: So kann man feststellen, dass der ikonologische, bzw. emblematische Ansatz zwar interessante und meistens auch in sich schlüssige Ergebnisse lieferte ¿ sich aber komplementär zu anderen Forschungsmeinungen verhält. Der somit auferlegte ¿Zwang zur Entscheidung¿ führte zu einer notwendig und nützlich erscheinenden intensiveren Weiterbeschäftigung mit dieser Thematik: Die Validität der Ikonologie als Methode, ihre Verwendbarkeit, Nützlichkeit und vor allem die sich aus ihr ergebenden Probleme stellen daher das Thema dieser Arbeit dar. 
Zuerst werden die Begriffe ¿Ikonographie¿ und ¿Ikonologie¿ erklärt, dann ein kurzer Überblick über die Entwicklung der ikonologischen Methode gegeben. Anschließend wird die Forschungsmethode anhand repräsentativer Kunsthistoriker hinsichtlich ihres Aufbaus, fehlenden Aspekten und Problemen chronologisch vorgestellt. 
Vorab konstatiert werden kann, dass im Laufe der Forschungsbeschäftigung immer weniger an der Methode an sich gearbeitet wurde, sondern vielmehr bisher vernachlässigte Aspekte und neue Betätigungsfelder integriert wurden: Die ikonologische Methode entwickelte sich vom Allgemeinen zum Speziellen. 
Nach diesem allgemeinen Überblick wurde ein Schwerpunkt gewählt, an welchem sich die Problematik besonders deutlich zeigt: Die Forschungspositionen zur Ikonologie der holländischen Genremalerei des 17. Jahrhunderts gehen (fast) unvereinbar weit auseinander und verdeutlichen daher exemplarisch die Schwierigkeiten ikonologischer Untersuchungsansätze.
Jan van Eycks Gemälde ¿Die Arnolfini-Hochzeit¿ bot sich schließlich für eine praktische Analyse der Methode an, da es zum einen von einem Begründer der Ikonologie, Erwin Panofsky, als auch, über 50 Jahre später, von seinem Kritiker Joannes Bedaux untersucht wurde.
Der Schwerpunkt dieser Arbeit liegt somit eher auf den Grenzen als den Möglichkeiten der Ikonologie. (Irsigler, Franziska)
Studienarbeit aus dem Jahr 2006 im Fachbereich Kunst - Kunsthandwerk, Note: 1,0, Universität Trier, Veranstaltung: Seminar Symbol, Allegorie, Emblem, Sprache: Deutsch, Abstract: Die kunsthistorische Methode der Ikonologie, in den 30er und 40er Jahren des 20. Jahrhunderts von Aby Warburg und Erwin Panofsky entwickelt, bereicherte die Forschung ungemein und lieferte neue, um nicht zu sagen bahnbrechende, Erkenntnisse. Doch im Laufe der Jahre wurden immer mehr Fragen aufgeworfen, die nicht nur die Methode an sich, sondern auch ihre Ergebnisse bezweifeln. Gerade in den Interpretationen Eddy de Jonghs zur holländischen Genremalerei des 17. Jahrhunderts wird man mit Problemen konfrontiert: So kann man feststellen, dass der ikonologische, bzw. emblematische Ansatz zwar interessante und meistens auch in sich schlüssige Ergebnisse lieferte ¿ sich aber komplementär zu anderen Forschungsmeinungen verhält. Der somit auferlegte ¿Zwang zur Entscheidung¿ führte zu einer notwendig und nützlich erscheinenden intensiveren Weiterbeschäftigung mit dieser Thematik: Die Validität der Ikonologie als Methode, ihre Verwendbarkeit, Nützlichkeit und vor allem die sich aus ihr ergebenden Probleme stellen daher das Thema dieser Arbeit dar. Zuerst werden die Begriffe ¿Ikonographie¿ und ¿Ikonologie¿ erklärt, dann ein kurzer Überblick über die Entwicklung der ikonologischen Methode gegeben. Anschließend wird die Forschungsmethode anhand repräsentativer Kunsthistoriker hinsichtlich ihres Aufbaus, fehlenden Aspekten und Problemen chronologisch vorgestellt. Vorab konstatiert werden kann, dass im Laufe der Forschungsbeschäftigung immer weniger an der Methode an sich gearbeitet wurde, sondern vielmehr bisher vernachlässigte Aspekte und neue Betätigungsfelder integriert wurden: Die ikonologische Methode entwickelte sich vom Allgemeinen zum Speziellen. Nach diesem allgemeinen Überblick wurde ein Schwerpunkt gewählt, an welchem sich die Problematik besonders deutlich zeigt: Die Forschungspositionen zur Ikonologie der holländischen Genremalerei des 17. Jahrhunderts gehen (fast) unvereinbar weit auseinander und verdeutlichen daher exemplarisch die Schwierigkeiten ikonologischer Untersuchungsansätze. Jan van Eycks Gemälde ¿Die Arnolfini-Hochzeit¿ bot sich schließlich für eine praktische Analyse der Methode an, da es zum einen von einem Begründer der Ikonologie, Erwin Panofsky, als auch, über 50 Jahre später, von seinem Kritiker Joannes Bedaux untersucht wurde. Der Schwerpunkt dieser Arbeit liegt somit eher auf den Grenzen als den Möglichkeiten der Ikonologie. (Irsigler, Franziska)

Studienarbeit aus dem Jahr 2006 im Fachbereich Kunst - Kunsthandwerk, Note: 1,0, Universität Trier, Veranstaltung: Seminar Symbol, Allegorie, Emblem, Sprache: Deutsch, Abstract: Die kunsthistorische Methode der Ikonologie, in den 30er und 40er Jahren des 20. Jahrhunderts von Aby Warburg und Erwin Panofsky entwickelt, bereicherte die Forschung ungemein und lieferte neue, um nicht zu sagen bahnbrechende, Erkenntnisse. Doch im Laufe der Jahre wurden immer mehr Fragen aufgeworfen, die nicht nur die Methode an sich, sondern auch ihre Ergebnisse bezweifeln. Gerade in den Interpretationen Eddy de Jonghs zur holländischen Genremalerei des 17. Jahrhunderts wird man mit Problemen konfrontiert: So kann man feststellen, dass der ikonologische, bzw. emblematische Ansatz zwar interessante und meistens auch in sich schlüssige Ergebnisse lieferte ¿ sich aber komplementär zu anderen Forschungsmeinungen verhält. Der somit auferlegte ¿Zwang zur Entscheidung¿ führte zu einer notwendig und nützlich erscheinenden intensiveren Weiterbeschäftigung mit dieser Thematik: Die Validität der Ikonologie als Methode, ihre Verwendbarkeit, Nützlichkeit und vor allem die sich aus ihr ergebenden Probleme stellen daher das Thema dieser Arbeit dar. Zuerst werden die Begriffe ¿Ikonographie¿ und ¿Ikonologie¿ erklärt, dann ein kurzer Überblick über die Entwicklung der ikonologischen Methode gegeben. Anschließend wird die Forschungsmethode anhand repräsentativer Kunsthistoriker hinsichtlich ihres Aufbaus, fehlenden Aspekten und Problemen chronologisch vorgestellt. Vorab konstatiert werden kann, dass im Laufe der Forschungsbeschäftigung immer weniger an der Methode an sich gearbeitet wurde, sondern vielmehr bisher vernachlässigte Aspekte und neue Betätigungsfelder integriert wurden: Die ikonologische Methode entwickelte sich vom Allgemeinen zum Speziellen. Nach diesem allgemeinen Überblick wurde ein Schwerpunkt gewählt, an welchem sich die Problematik besonders deutlich zeigt: Die Forschungspositionen zur Ikonologie der holländischen Genremalerei des 17. Jahrhunderts gehen (fast) unvereinbar weit auseinander und verdeutlichen daher exemplarisch die Schwierigkeiten ikonologischer Untersuchungsansätze. Jan van Eycks Gemälde ¿Die Arnolfini-Hochzeit¿ bot sich schließlich für eine praktische Analyse der Methode an, da es zum einen von einem Begründer der Ikonologie, Erwin Panofsky, als auch, über 50 Jahre später, von seinem Kritiker Joannes Bedaux untersucht wurde. Der Schwerpunkt dieser Arbeit liegt somit eher auf den Grenzen als den Möglichkeiten der Ikonologie. , Antiquarische Bücher > Antiquitäten & Kunst , Auflage: 3. Auflage, Erscheinungsjahr: 20070723, Produktform: Kartoniert, Beilage: Paperback, Autoren: Irsigler, Franziska, Auflage: 07003, Auflage/Ausgabe: 3. Auflage, Seitenzahl/Blattzahl: 48, Keyword: Seminar; Symbol; Allegorie; Emblem, Warengruppe: HC/Kunst/Sonstiges, Fachkategorie: Kunst: allgemeine Themen, Text Sprache: ger, UNSPSC: 49019900, Warenverzeichnis für die Außenhandelsstatistik: 49019900, Verlag: GRIN Verlag, Länge: 210, Breite: 148, Höhe: 4, Gewicht: 84, Produktform: Kartoniert, Genre: Geisteswissenschaften/Kunst/Musik, Genre: Geisteswissenschaften/Kunst/Musik, eBook EAN: 9783638599467, Herkunftsland: DEUTSCHLAND (DE), Katalog: deutschsprachige Titel, Katalog: Gesamtkatalog, Katalog: Lagerartikel, Book on Demand, ausgew. Medienartikel, Unterkatalog: AK, Unterkatalog: Bücher, Unterkatalog: Hardcover,

Preis: 27.95 € | Versand*: 0 €
Die simulative Prognose des Mündungsgeräusches von Fahrzeugabgasanlagen stellt ein essentielles Auslegungswerkzeug dar, um den vielseitigen akustischen Anforderungen in der modernen Fahrzeugakustikentwicklung gerecht zu werden. Ein hierfür etablierter methodischer Ansatz ist die eindimensionale nichtlineare Gasdynamiksimulation im Zeitbereich. Während mit dieser Methode schnelle Simulationen bei geringem Rechenaufwand möglich sind, gehen damit aufgrund der implizierten eingeschränkten eindimensionalen Abbildung der Strömungsvorgänge ebenfalls verschiedene Restriktionen im Prognoseumfang einher. Aufgrund der kontinuierlich steigenden akustischen Anforderungen, sowohl aus Kundensicht als psychoakustischer Qualitätsaspekt als auch hinsichtlich gesetzlicher Vorschriften, ist für die zukünftige adäquate und zielgerichtete Entwicklung des Mündungsgeräusches eine deutliche Erweiterung des numerischen Prognoseumfanges notwendig. Für die vollständige Abbildung der akustischen Quellmechanismen ist es erforderlich, die Strömungsvorgänge vollumfänglich im dreidimensionalen Kontext, einschließlich derer Turbulenzinformationen, abzubilden und daraus die akustischen Quellen sowie deren Ausbreitung abzuleiten. In der vorliegenden Arbeit wird dieser zusammenhängende Themenkomplex mittels systematischer experimenteller Analysen der grundlegenden Strömungs- und Akustikmechanismen erschlossen und mit darauf aufbauenden numerischen Untersuchungen schrittweise zu einer geeigneten dreidimensionalen Prognosemethode geführt. Für die differenzierte Untersuchung der überlagerten strömungsakustischen Einzelmechanismen, die dem Entstehungsprozess des Mündungsgeräusches zugrunde liegen, wurde eine geometrische und physikalische Abstrahierung vorgenommen. Dabei wurden drei generische Untersuchungsmodelle definiert: ein gerades Rohr und zwei zylindrische Expansionskammern, die sich im Durchmesser unterscheiden. Die Modelle wurden mit zwei separierten physikalischen Eingangsrandbedingungen in Form eines stationären Massenstroms bei unterschiedlichen Machzahlen und eines pulsierenden Massenstroms bei verschiedenen Motordrehzahlen beaufschlagt. Dadurch wurde die Analyse der distinktiven akustischen Entstehungsmechanismen sowie eine schrittweise Evaluierung einer geeigneten numerischen Prognosemethode ermöglicht. Im Experiment wurden sowohl die transienten turbulenten Strömungsfelder im Freistrahl stromabwärts der Modellmündungen als auch die von dort emittierten Akustikfelder erfasst. Zur numerischen Abbildung wurden Strömungssimulationen mit hybriden DES- und LES-Turbulenzformulierungen unter Verwendung unterschiedlicher numerischer Konfigurationen durchgeführt und zur Berechnung des akustischen Signals mit der Ffowcs Williams und Hawkings Methode gekoppelt.
Anhand der experimentellen Daten zum geraden Rohr bei stationärem Massenstrom konnte gezeigt werden, dass die in der Freistrahlakustik etablierten Ähnlichkeitsspektren auch für Freistrahlen im niedrigen subsonischen Bereich basierend auf einer voll turbulenten Rohrströmung Validität besitzen. Allerdings war bei jedem Abstrahlwinkel stets eine Superpositionierung der beiden Ähnlichkeitsspektren und damit der beiden selbstähnlichen turbulenten Quellmechanismen zur Approximation der gemessenen Frequenzspektren erforderlich. Dies steht im Kontrast zu den Literaturergebnissen und konnte als Eigenschaft der in dieser Arbeit untersuchten kleinen Machzahlen identifiziert werden. Mit den dazugehörigen Simulationen konnte gezeigt werden, dass das DES-Modell in Standard-Konfiguration nicht zur Abbildung eines auf einer voll turbulenten Rohrströmung basierenden Freistrahls geeignet ist. Aufgrund einer räumlichen Verzögerung in der Entstehung aufgelöster turbulenter Fluktuationen stromabwärts der Modellmündung entstand ein Verhalten mit ähnlichen Charakteristika einer laminar-turbulenten Transition. Durch stark ausgeprägte räumlich kohärente Wirbelstrukturen führte dies zu akustischen Überhöhungen bei tiefen und mittleren Frequenzen von bis zu +12 dB/Hz. Dieser Effekt konnte durch eine numerische Konfiguration in Form einer künstlichen Reduzierung der Wirbelviskosität im Freistrahl vermieden werden, wodurch die akustischen Überhöhungen um bis zu 9.8 dB/Hz verringert wurden. Weitere Konfigurationen zeigten, dass die Form des radialen turbulenten Strömungsprofils an der Mündung sowie die Auflösung turbulenter Fluktuationen in der Grenzschicht stromaufwärts der Mündung maßgebliche Parameter für die korrekte akustische Prädiktion in mittleren und hohen Frequenzbereichen sind. Als übergreifend geeignetste Methode ließ sich schließlich die skalenauflösende Simulation der innenliegenden Rohrströmung mittels WMLES und synthetischer Eingangsturbulenz festhalten. Die komplementären experimentellen Untersuchungen an den Modellen der Expansionskammern zeigten, dass trotz identischer Eingangsrandbedingungen deutlich erhöhte Schalldruckpegel im Mündungsgeräusch gegenüber dem geraden Rohr entstehen. Diese ließen sich auf tonale Komponenten, bedingt durch angeregte Systemresonanzen, sowie auf erhöhte breitbandige Anteile, hervorgerufen durch gesteigerte Turbulenzgrade, zurückführen. Beide Effekte zeigten dabei eine Abhängigkeit vom Kammerdurchmesser. Mit dem Übertrag der WMLES-Methode vom geraden Rohr auf die große Expansionskammer wurden sowohl im turbulenten Strömungsfeld als auch in Form der deutlich erhöhten akustischen Anregung sowie in derer Tonalität sehr gute Ergebnisse erzielt. Dies bestätigte die gute Prognosegüte dieses Ansatzes auch für komplexere Geometrien. Bei den zweiten physikalischen Eingangsrandbedingungen in Form des pulsierenden Massenstroms zeigten die experimentellen Ergebnisse ein stark tonal geprägtes Mündungsgeräusch. Dieses wies trotz niedrigerer mittlerer Machzahl eine erhebliche Erhöhung der Schalldruckpegel gegenüber dem stationären Massenstrom auf und verdeutlichte dadurch die signifikant erhöhte Effizienz eines pulsierenden Massenstroms als akustischer Quellmechanismus, der als Monopolquelle agiert. Des Weiteren konnte gezeigt werden, dass mit steigender Motordrehzahl eine Umverteilung der akustischen Anregung von Haupt- zu Nebenordnungen einhergeht, was auf eine Änderung der frequenziellen Aufteilung der strömungsseitigen Anregungsenergie zurückzuführen war. Die bei global stationären Randbedingungen verifizierte Simulationsmethodik des WMLES-Modells ergab auch bei pulsierendem Massenstrom sowohl hinsichtlich des erhöhten Schallpegelniveaus als auch in Bezug auf die Tonalität sehr gute Ergebnisse. Ferner stimmten die Gesamtschalldruckpegel sehr gut bis exakt mit den experimentellen Daten überein. Insgesamt ist dieser numerische Ansatz somit als geeignete Methode zur Abbildung aller grundlegenden strömungsakustischen Mechanismen des Mündungsgeräusches von Fahrzeugabgasanlagen festzuhalten. (Hillenbrand, Jan)
Die simulative Prognose des Mündungsgeräusches von Fahrzeugabgasanlagen stellt ein essentielles Auslegungswerkzeug dar, um den vielseitigen akustischen Anforderungen in der modernen Fahrzeugakustikentwicklung gerecht zu werden. Ein hierfür etablierter methodischer Ansatz ist die eindimensionale nichtlineare Gasdynamiksimulation im Zeitbereich. Während mit dieser Methode schnelle Simulationen bei geringem Rechenaufwand möglich sind, gehen damit aufgrund der implizierten eingeschränkten eindimensionalen Abbildung der Strömungsvorgänge ebenfalls verschiedene Restriktionen im Prognoseumfang einher. Aufgrund der kontinuierlich steigenden akustischen Anforderungen, sowohl aus Kundensicht als psychoakustischer Qualitätsaspekt als auch hinsichtlich gesetzlicher Vorschriften, ist für die zukünftige adäquate und zielgerichtete Entwicklung des Mündungsgeräusches eine deutliche Erweiterung des numerischen Prognoseumfanges notwendig. Für die vollständige Abbildung der akustischen Quellmechanismen ist es erforderlich, die Strömungsvorgänge vollumfänglich im dreidimensionalen Kontext, einschließlich derer Turbulenzinformationen, abzubilden und daraus die akustischen Quellen sowie deren Ausbreitung abzuleiten. In der vorliegenden Arbeit wird dieser zusammenhängende Themenkomplex mittels systematischer experimenteller Analysen der grundlegenden Strömungs- und Akustikmechanismen erschlossen und mit darauf aufbauenden numerischen Untersuchungen schrittweise zu einer geeigneten dreidimensionalen Prognosemethode geführt. Für die differenzierte Untersuchung der überlagerten strömungsakustischen Einzelmechanismen, die dem Entstehungsprozess des Mündungsgeräusches zugrunde liegen, wurde eine geometrische und physikalische Abstrahierung vorgenommen. Dabei wurden drei generische Untersuchungsmodelle definiert: ein gerades Rohr und zwei zylindrische Expansionskammern, die sich im Durchmesser unterscheiden. Die Modelle wurden mit zwei separierten physikalischen Eingangsrandbedingungen in Form eines stationären Massenstroms bei unterschiedlichen Machzahlen und eines pulsierenden Massenstroms bei verschiedenen Motordrehzahlen beaufschlagt. Dadurch wurde die Analyse der distinktiven akustischen Entstehungsmechanismen sowie eine schrittweise Evaluierung einer geeigneten numerischen Prognosemethode ermöglicht. Im Experiment wurden sowohl die transienten turbulenten Strömungsfelder im Freistrahl stromabwärts der Modellmündungen als auch die von dort emittierten Akustikfelder erfasst. Zur numerischen Abbildung wurden Strömungssimulationen mit hybriden DES- und LES-Turbulenzformulierungen unter Verwendung unterschiedlicher numerischer Konfigurationen durchgeführt und zur Berechnung des akustischen Signals mit der Ffowcs Williams und Hawkings Methode gekoppelt. Anhand der experimentellen Daten zum geraden Rohr bei stationärem Massenstrom konnte gezeigt werden, dass die in der Freistrahlakustik etablierten Ähnlichkeitsspektren auch für Freistrahlen im niedrigen subsonischen Bereich basierend auf einer voll turbulenten Rohrströmung Validität besitzen. Allerdings war bei jedem Abstrahlwinkel stets eine Superpositionierung der beiden Ähnlichkeitsspektren und damit der beiden selbstähnlichen turbulenten Quellmechanismen zur Approximation der gemessenen Frequenzspektren erforderlich. Dies steht im Kontrast zu den Literaturergebnissen und konnte als Eigenschaft der in dieser Arbeit untersuchten kleinen Machzahlen identifiziert werden. Mit den dazugehörigen Simulationen konnte gezeigt werden, dass das DES-Modell in Standard-Konfiguration nicht zur Abbildung eines auf einer voll turbulenten Rohrströmung basierenden Freistrahls geeignet ist. Aufgrund einer räumlichen Verzögerung in der Entstehung aufgelöster turbulenter Fluktuationen stromabwärts der Modellmündung entstand ein Verhalten mit ähnlichen Charakteristika einer laminar-turbulenten Transition. Durch stark ausgeprägte räumlich kohärente Wirbelstrukturen führte dies zu akustischen Überhöhungen bei tiefen und mittleren Frequenzen von bis zu +12 dB/Hz. Dieser Effekt konnte durch eine numerische Konfiguration in Form einer künstlichen Reduzierung der Wirbelviskosität im Freistrahl vermieden werden, wodurch die akustischen Überhöhungen um bis zu 9.8 dB/Hz verringert wurden. Weitere Konfigurationen zeigten, dass die Form des radialen turbulenten Strömungsprofils an der Mündung sowie die Auflösung turbulenter Fluktuationen in der Grenzschicht stromaufwärts der Mündung maßgebliche Parameter für die korrekte akustische Prädiktion in mittleren und hohen Frequenzbereichen sind. Als übergreifend geeignetste Methode ließ sich schließlich die skalenauflösende Simulation der innenliegenden Rohrströmung mittels WMLES und synthetischer Eingangsturbulenz festhalten. Die komplementären experimentellen Untersuchungen an den Modellen der Expansionskammern zeigten, dass trotz identischer Eingangsrandbedingungen deutlich erhöhte Schalldruckpegel im Mündungsgeräusch gegenüber dem geraden Rohr entstehen. Diese ließen sich auf tonale Komponenten, bedingt durch angeregte Systemresonanzen, sowie auf erhöhte breitbandige Anteile, hervorgerufen durch gesteigerte Turbulenzgrade, zurückführen. Beide Effekte zeigten dabei eine Abhängigkeit vom Kammerdurchmesser. Mit dem Übertrag der WMLES-Methode vom geraden Rohr auf die große Expansionskammer wurden sowohl im turbulenten Strömungsfeld als auch in Form der deutlich erhöhten akustischen Anregung sowie in derer Tonalität sehr gute Ergebnisse erzielt. Dies bestätigte die gute Prognosegüte dieses Ansatzes auch für komplexere Geometrien. Bei den zweiten physikalischen Eingangsrandbedingungen in Form des pulsierenden Massenstroms zeigten die experimentellen Ergebnisse ein stark tonal geprägtes Mündungsgeräusch. Dieses wies trotz niedrigerer mittlerer Machzahl eine erhebliche Erhöhung der Schalldruckpegel gegenüber dem stationären Massenstrom auf und verdeutlichte dadurch die signifikant erhöhte Effizienz eines pulsierenden Massenstroms als akustischer Quellmechanismus, der als Monopolquelle agiert. Des Weiteren konnte gezeigt werden, dass mit steigender Motordrehzahl eine Umverteilung der akustischen Anregung von Haupt- zu Nebenordnungen einhergeht, was auf eine Änderung der frequenziellen Aufteilung der strömungsseitigen Anregungsenergie zurückzuführen war. Die bei global stationären Randbedingungen verifizierte Simulationsmethodik des WMLES-Modells ergab auch bei pulsierendem Massenstrom sowohl hinsichtlich des erhöhten Schallpegelniveaus als auch in Bezug auf die Tonalität sehr gute Ergebnisse. Ferner stimmten die Gesamtschalldruckpegel sehr gut bis exakt mit den experimentellen Daten überein. Insgesamt ist dieser numerische Ansatz somit als geeignete Methode zur Abbildung aller grundlegenden strömungsakustischen Mechanismen des Mündungsgeräusches von Fahrzeugabgasanlagen festzuhalten. (Hillenbrand, Jan)

Die simulative Prognose des Mündungsgeräusches von Fahrzeugabgasanlagen stellt ein essentielles Auslegungswerkzeug dar, um den vielseitigen akustischen Anforderungen in der modernen Fahrzeugakustikentwicklung gerecht zu werden. Ein hierfür etablierter methodischer Ansatz ist die eindimensionale nichtlineare Gasdynamiksimulation im Zeitbereich. Während mit dieser Methode schnelle Simulationen bei geringem Rechenaufwand möglich sind, gehen damit aufgrund der implizierten eingeschränkten eindimensionalen Abbildung der Strömungsvorgänge ebenfalls verschiedene Restriktionen im Prognoseumfang einher. Aufgrund der kontinuierlich steigenden akustischen Anforderungen, sowohl aus Kundensicht als psychoakustischer Qualitätsaspekt als auch hinsichtlich gesetzlicher Vorschriften, ist für die zukünftige adäquate und zielgerichtete Entwicklung des Mündungsgeräusches eine deutliche Erweiterung des numerischen Prognoseumfanges notwendig. Für die vollständige Abbildung der akustischen Quellmechanismen ist es erforderlich, die Strömungsvorgänge vollumfänglich im dreidimensionalen Kontext, einschließlich derer Turbulenzinformationen, abzubilden und daraus die akustischen Quellen sowie deren Ausbreitung abzuleiten. In der vorliegenden Arbeit wird dieser zusammenhängende Themenkomplex mittels systematischer experimenteller Analysen der grundlegenden Strömungs- und Akustikmechanismen erschlossen und mit darauf aufbauenden numerischen Untersuchungen schrittweise zu einer geeigneten dreidimensionalen Prognosemethode geführt. Für die differenzierte Untersuchung der überlagerten strömungsakustischen Einzelmechanismen, die dem Entstehungsprozess des Mündungsgeräusches zugrunde liegen, wurde eine geometrische und physikalische Abstrahierung vorgenommen. Dabei wurden drei generische Untersuchungsmodelle definiert: ein gerades Rohr und zwei zylindrische Expansionskammern, die sich im Durchmesser unterscheiden. Die Modelle wurden mit zwei separierten physikalischen Eingangsrandbedingungen in Form eines stationären Massenstroms bei unterschiedlichen Machzahlen und eines pulsierenden Massenstroms bei verschiedenen Motordrehzahlen beaufschlagt. Dadurch wurde die Analyse der distinktiven akustischen Entstehungsmechanismen sowie eine schrittweise Evaluierung einer geeigneten numerischen Prognosemethode ermöglicht. Im Experiment wurden sowohl die transienten turbulenten Strömungsfelder im Freistrahl stromabwärts der Modellmündungen als auch die von dort emittierten Akustikfelder erfasst. Zur numerischen Abbildung wurden Strömungssimulationen mit hybriden DES- und LES-Turbulenzformulierungen unter Verwendung unterschiedlicher numerischer Konfigurationen durchgeführt und zur Berechnung des akustischen Signals mit der Ffowcs Williams und Hawkings Methode gekoppelt. Anhand der experimentellen Daten zum geraden Rohr bei stationärem Massenstrom konnte gezeigt werden, dass die in der Freistrahlakustik etablierten Ähnlichkeitsspektren auch für Freistrahlen im niedrigen subsonischen Bereich basierend auf einer voll turbulenten Rohrströmung Validität besitzen. Allerdings war bei jedem Abstrahlwinkel stets eine Superpositionierung der beiden Ähnlichkeitsspektren und damit der beiden selbstähnlichen turbulenten Quellmechanismen zur Approximation der gemessenen Frequenzspektren erforderlich. Dies steht im Kontrast zu den Literaturergebnissen und konnte als Eigenschaft der in dieser Arbeit untersuchten kleinen Machzahlen identifiziert werden. Mit den dazugehörigen Simulationen konnte gezeigt werden, dass das DES-Modell in Standard-Konfiguration nicht zur Abbildung eines auf einer voll turbulenten Rohrströmung basierenden Freistrahls geeignet ist. Aufgrund einer räumlichen Verzögerung in der Entstehung aufgelöster turbulenter Fluktuationen stromabwärts der Modellmündung entstand ein Verhalten mit ähnlichen Charakteristika einer laminar-turbulenten Transition. Durch stark ausgeprägte räumlich kohärente Wirbelstrukturen führte dies zu akustischen Überhöhungen bei tiefen und mittleren Frequenzen von bis zu +12 dB/Hz. Dieser Effekt konnte durch eine numerische Konfiguration in Form einer künstlichen Reduzierung der Wirbelviskosität im Freistrahl vermieden werden, wodurch die akustischen Überhöhungen um bis zu 9.8 dB/Hz verringert wurden. Weitere Konfigurationen zeigten, dass die Form des radialen turbulenten Strömungsprofils an der Mündung sowie die Auflösung turbulenter Fluktuationen in der Grenzschicht stromaufwärts der Mündung maßgebliche Parameter für die korrekte akustische Prädiktion in mittleren und hohen Frequenzbereichen sind. Als übergreifend geeignetste Methode ließ sich schließlich die skalenauflösende Simulation der innenliegenden Rohrströmung mittels WMLES und synthetischer Eingangsturbulenz festhalten. Die komplementären experimentellen Untersuchungen an den Modellen der Expansionskammern zeigten, dass trotz identischer Eingangsrandbedingungen deutlich erhöhte Schalldruckpegel im Mündungsgeräusch gegenüber dem geraden Rohr entstehen. Diese ließen sich auf tonale Komponenten, bedingt durch angeregte Systemresonanzen, sowie auf erhöhte breitbandige Anteile, hervorgerufen durch gesteigerte Turbulenzgrade, zurückführen. Beide Effekte zeigten dabei eine Abhängigkeit vom Kammerdurchmesser. Mit dem Übertrag der WMLES-Methode vom geraden Rohr auf die große Expansionskammer wurden sowohl im turbulenten Strömungsfeld als auch in Form der deutlich erhöhten akustischen Anregung sowie in derer Tonalität sehr gute Ergebnisse erzielt. Dies bestätigte die gute Prognosegüte dieses Ansatzes auch für komplexere Geometrien. Bei den zweiten physikalischen Eingangsrandbedingungen in Form des pulsierenden Massenstroms zeigten die experimentellen Ergebnisse ein stark tonal geprägtes Mündungsgeräusch. Dieses wies trotz niedrigerer mittlerer Machzahl eine erhebliche Erhöhung der Schalldruckpegel gegenüber dem stationären Massenstrom auf und verdeutlichte dadurch die signifikant erhöhte Effizienz eines pulsierenden Massenstroms als akustischer Quellmechanismus, der als Monopolquelle agiert. Des Weiteren konnte gezeigt werden, dass mit steigender Motordrehzahl eine Umverteilung der akustischen Anregung von Haupt- zu Nebenordnungen einhergeht, was auf eine Änderung der frequenziellen Aufteilung der strömungsseitigen Anregungsenergie zurückzuführen war. Die bei global stationären Randbedingungen verifizierte Simulationsmethodik des WMLES-Modells ergab auch bei pulsierendem Massenstrom sowohl hinsichtlich des erhöhten Schallpegelniveaus als auch in Bezug auf die Tonalität sehr gute Ergebnisse. Ferner stimmten die Gesamtschalldruckpegel sehr gut bis exakt mit den experimentellen Daten überein. Insgesamt ist dieser numerische Ansatz somit als geeignete Methode zur Abbildung aller grundlegenden strömungsakustischen Mechanismen des Mündungsgeräusches von Fahrzeugabgasanlagen festzuhalten. , Bücher > Bücher & Zeitschriften , Erscheinungsjahr: 20221214, Produktform: Kartoniert, Autoren: Hillenbrand, Jan, Seitenzahl/Blattzahl: 299, Keyword: Freistrahl; Abgasanlage; numerische Strömungssimulation; Turbulenz; Strömungsakustik; Turbulente Strömung; Strömungsmechanik; Schallabstrahlung; Akustik, Fachschema: Mechanik / Strömungsmechanik~Strömungsmechanik~Akustik~Mechanik~Vibration~Antrieb (technisch), Fachkategorie: Wissenschaftliche Forschung~Wellenmechanik (Vibration und Akustik)~Motoren und Antriebstechnik, Warengruppe: HC/Maschinenbau/Fertigungstechnik, Fachkategorie: Physik: Strömungsmechanik, Text Sprache: ger, UNSPSC: 49019900, Warenverzeichnis für die Außenhandelsstatistik: 49019900, Verlag: FAU University Press, Verlag: FAU University Press, Verlag: FAU University Press ein Imprint der Universit„t Erlangen-Nrnberg, Länge: 238, Breite: 169, Höhe: 22, Gewicht: 824, Produktform: Kartoniert, Genre: Mathematik/Naturwissenschaften/Technik/Medizin, Genre: Mathematik/Naturwissenschaften/Technik/Medizin, Herkunftsland: DEUTSCHLAND (DE), Katalog: deutschsprachige Titel, Katalog: Gesamtkatalog, Katalog: Lagerartikel, Book on Demand, ausgew. Medienartikel, Unterkatalog: AK, Unterkatalog: Bücher, Unterkatalog: Hardcover,

Preis: 37.50 € | Versand*: 0 €

Was ist die Validität von Intelligenzmessungen und wie hoch ist die Korrelation zwischen Intelligenz und Erfolg?

Die Validität von Intelligenzmessungen bezieht sich darauf, ob ein Test tatsächlich das misst, was er zu messen vorgibt, nämlich d...

Die Validität von Intelligenzmessungen bezieht sich darauf, ob ein Test tatsächlich das misst, was er zu messen vorgibt, nämlich die Intelligenz einer Person. Unterschiedliche Intelligenztests haben unterschiedliche Validitätsniveaus, aber im Allgemeinen gelten sie als relativ valide. Die Korrelation zwischen Intelligenz und Erfolg ist positiv, aber nicht perfekt. Es gibt eine Tendenz, dass Menschen mit höherer Intelligenz tendenziell erfolgreichere Berufs- und Bildungslaufbahnen haben. Allerdings spielen auch andere Faktoren wie Persönlichkeit, Motivation und soziale Unterstützung eine Rolle beim Erfolg.

Quelle: KI generiert von FAQ.de

Was sind die Gütekriterien wissenschaftlichen Vorgehens in der Psychologie und wie unterscheidet man Validität und Reliabilität?

Die Gütekriterien wissenschaftlichen Vorgehens in der Psychologie umfassen Validität, Reliabilität, Objektivität und Ökonomie. Val...

Die Gütekriterien wissenschaftlichen Vorgehens in der Psychologie umfassen Validität, Reliabilität, Objektivität und Ökonomie. Validität bezieht sich auf die Genauigkeit und Gültigkeit der gemessenen Ergebnisse, während Reliabilität die Zuverlässigkeit und Konsistenz der Messungen beschreibt. Validität bezieht sich also auf die Frage, ob ein Test das misst, was er messen soll, während Reliabilität sich auf die Frage konzentriert, ob ein Test zuverlässige und konsistente Ergebnisse liefert.

Quelle: KI generiert von FAQ.de

Inwiefern beeinflusst die Validität von Daten die Entscheidungsfindung in den Bereichen der Wissenschaft, Wirtschaft und Technologie?

Die Validität von Daten ist entscheidend für die Qualität von Entscheidungen in den Bereichen der Wissenschaft, Wirtschaft und Tec...

Die Validität von Daten ist entscheidend für die Qualität von Entscheidungen in den Bereichen der Wissenschaft, Wirtschaft und Technologie. In der Wissenschaft können falsche oder unzuverlässige Daten zu fehlerhaften Hypothesen und Forschungsergebnissen führen. In der Wirtschaft können ungenaue Daten zu falschen Prognosen und Investitionsentscheidungen führen, die sich negativ auf das Unternehmen auswirken können. In der Technologie können falsche Daten zu fehlerhaften Produktentwicklungen und ineffizienten Lösungen führen, die die Leistung und Sicherheit beeinträchtigen können. Daher ist es wichtig, dass Daten in diesen Bereichen validiert und überprüft werden, um fundierte Entscheidungen zu treffen.

Quelle: KI generiert von FAQ.de

Wie beeinflusst die Verwendung von Zufallsauswahlverfahren in der psychologischen Forschung die Validität und Zuverlässigkeit von Studienergebnissen?

Die Verwendung von Zufallsauswahlverfahren in der psychologischen Forschung trägt zur Validität der Studienergebnisse bei, da sie...

Die Verwendung von Zufallsauswahlverfahren in der psychologischen Forschung trägt zur Validität der Studienergebnisse bei, da sie sicherstellt, dass die Stichprobe repräsentativ für die Gesamtbevölkerung ist. Dies erhöht die Generalisierbarkeit der Ergebnisse. Zufallsauswahlverfahren tragen auch zur Zuverlässigkeit bei, da sie die Wahrscheinlichkeit von Verzerrungen in der Stichprobe verringern, was die Konsistenz der Ergebnisse erhöht. Durch die Verwendung von Zufallsauswahlverfahren können Forscher sicherstellen, dass ihre Studienergebnisse nicht aufgrund von systematischen Verzerrungen oder Voreingenommenheit beeinflusst werden, was die Validität und Zuverlässigkeit der Ergebnisse erhöht.

Quelle: KI generiert von FAQ.de

* Alle Preise verstehen sich inklusive der gesetzlichen Mehrwertsteuer und ggf. zuzüglich Versandkosten. Die Angebotsinformationen basieren auf den Angaben des jeweiligen Shops und werden über automatisierte Prozesse aktualisiert. Eine Aktualisierung in Echtzeit findet nicht statt, so dass es im Einzelfall zu Abweichungen kommen kann.