Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 8. Juni 2018 um 21:42 Uhr durch 88.65.124.229(Diskussion)(→Sorgenkinder). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Hier ist Platz, Bearbeitungs- und Änderungswünsche an die Botbetreiber zu notieren, die in „Handarbeit“ ausgeführt eher als Zumutung gelten können, zum Beispiel das Korrigieren von mehr als 50 Einbindungen einer verschobenenVorlage (gilt nur für zu löschende Falschschreibungsweiterleitungen auf Vorlagen!). Wenn du Fragen hast, kannst du Botbetreiber auch im IRC-Channel [#wikipedia-de-bots] Webchat erreichen. Für Besprechungen unter den Botbetreibern oder zur Koordination von wichtigen Änderungen (z. B. an der API) gibt es die Bot/Notizen.
Für Rundschreiben (Einladungen zu Stammtischen usw.) gibt es auch die Funktion Hilfe:Massennachricht.
Für Anfragesteller gilt
Anfragen bitte begründen, gegebenenfalls mit Links auf relevante Diskussionen, und unterschreiben.
Es gibt keine Verpflichtung der Botbetreiber, diesen Anfragen nachzukommen, und insofern auch keinen Anspruch auf Umsetzung eines Änderungswunsches.
Größere Änderungen an Artikeln eines Themengebietes, z. B. an Einbindungen viel genutzter Vorlagen, bitte mit den jeweiligen Fachportalen oder -redaktionen abstimmen. Die Verantwortung für die Aktion liegt beim Anfragesteller.
Vor dem Stellen einer Anfrage, die einen regelmäßigen Boteinsatz und keine einmalige (Massen-)Änderung betrifft, bitte ebenfalls das betroffene Portal bzw. Projekt informieren und den geplanten Boteinsatz dort diskutieren.
Bei einem Boteinsatz ist oft noch Vor- und Nacharbeit durch den Anfragesteller notwendig, zum Beispiel nach Auflösung von Weiterleitungen die Kontrolle und das Stellen eines Schnelllöschantrages. Auch kann es immer Fälle geben, in denen der Bot nicht richtig arbeitet und die dann manuell nachgearbeitet werden müssen.
Ein einfaches Umbiegen von Links nach einer Verschiebung auf das neue Ziel wird grundsätzlich nicht vorgenommen. Umgebogen werden können Verweise auf zwingend zu löschende Weiterleitungen – wie z. B. bei Falschschreibungs-Weiterleitungen oder nach Verschiebungen falsch geschriebener Vorlagen.
Änderungen der Signatur können in Fällen durchgeführt werden, in denen zahlreiche Links auf eine falsche Benutzerseite zeigen. Dies jedoch nur, falls die Korrektur nicht mittels Weiterleitungen möglich ist (beispielsweise bei im Rahmen der SUL-Finalisierung umbenannten Benutzern).
Es werden keine Änderungen der Rechtschreibung zwischen zulässigen Versionen bzw. Variationen durchgeführt.
Für Botbetreiber gilt
Jeder Botbetreiber ist verpflichtet, die Sinnhaftigkeit vor Ausführung eines Änderungswunsches zu prüfen und bei Einsprüchen gegebenenfalls von der Änderung abzusehen (kein blindes Vertrauen in die Angemessenheit/Richtigkeit hier gestellter Anfragen).
Für jede hier gelistete Anfrage gelten die auf Wikipedia:Bots genannten grundsätzlichen Regeln (zum Beispiel keine Änderungen im Benutzer- oder Wikipedia-Namensraum ohne Absprache).
Bot-Anfragen (insbesondere nach Löschdiskussionen) sollten mindestens 3 Tage ruhen, um eine gegebenenfalls initiierte Löschprüfung nicht durch vollendete Tatsachen unmöglich zu machen. Bei offensichtlichen Botaufträgen (z. B. aus einer Portal-Diskussion für das Portal beschlossene Änderungen und dergleichen) ist diese Wartezeit nicht zwingend notwendig, desgleichen nicht für „Anfrage-Aufträge“, die keine Seiten in der Wikipedia ändern.
Durchführung
Die Botbetreiber sollen bitte vor Umsetzung den jeweiligen Punkt entsprechend kommentieren, um Überschneidungen zu vermeiden.
Dazu sollte vor dem Botstart hier im entsprechenden Abschnitt die Vorlage InuseBot platziert werden:
{{InuseBot|Botname|Betreiber}}
Den Bot bitte sorgfältig beobachten!
Bitte nach Erledigung den Punkt in der Liste als erledigt kennzeichnen.
Letzter Kommentar: vor 6 Jahren5 Kommentare3 Personen sind an der Diskussion beteiligt
Im Rahmen eines Kurier-Artikels rückte die erweiterte Liste in den Fokus. Sie ist allerdings auf den Stand von September 2012, seitdem hat sich die ursprüngliche Meta-Liste sehr, sehr stark geändert, doch per Hand ist eine Aktualisierung der vielen Daten kaum zu schaffen.
Die Links müssten von Wikidata auf deutsche Wikipedia-Artikel umgestellt werden
man müsste die bereits in der veralteten Version vorhandenen Lesenswert-, Exzellent- und Gesprochen-Versionen-Bapperl aktualisieren
Bei Rotlinks müssten dann auch ein Interwiki-Link zum en-Artikel (alternativ: Wikidata-Eintrag) hinzugefügt werden.
In diesem Zustand würde das nichts nützen, denn die Meta-Liste wurde in den letzten Jahren extrem stark überarbeitet, die beiden Listen sind also nicht mal ansatzweise deckungsgleich. Wenn einer unsere Liste aktualisiert hat, können blaue Links auch gerne entfernt werden, aber nicht im derzeitigen Zustand.--CG (Diskussion) 13:54, 2. Mär. 2016 (CET)Beantworten
Letzter Kommentar: vor 6 Jahren21 Kommentare6 Personen sind an der Diskussion beteiligt
Normalerweise werden Importartikel nach 3 Monaten Nichtbearbeitung gelöscht. Ich schlage daher, falls jemand daran Interesse hat, folgenden Bot vor (ich kann das leider nicht): Automatische Löschung von Importartikel, die drei Monate unbearbeitet sind und der Benutzer auch inaktiv. Automatische Benachrichtigung auf er Benutzerdisk (entfällt bei gesperrten Benutzern). Automatische Benachrichtigung auf der Benutzerdisk, falls der Importartikel drei Monate nicht bearbeitet wurde, der Benutzer aber aktiv ist. Siehe dazu auch die Diskussion auf meiner Disk unter Benutzer Diskussion:Informationswiedergutmachung#SLAs auf alte Importe. Es erspart Zeit, sinnlose Diskussionen und dürfte automatisierbar sein. MfG --Informationswiedergutmachung (Diskussion) 22:38, 2. Dez. 2014 (CET)Beantworten
Ich würde diese Angelegenheit federführend den Importeuren überlassen.
Auf Wikipedia:Importwünsche/Wartung wird eine detaillierte Auflistung generiert, wann welcher Artikelentwurf zuletzt bearbeitet wurde und von wem.
Diese detaillierte Auflistung wurde zuletzt am 30. Januar 2014 aktualisiert (siehe Verson) und drin steht: Letzter Stand: Sonntag, 1. September 2013 16:20:18. Außerdem stimmt sie hinten und vorne nicht: es sind noch drei Artikel vom Mai 2011 nicht fertig übersetzt, siehe Kategorie:Benutzer:Importartikel 05 - 2011, viele haben gar kein Importdatum in der Tabelle. Ein Bot würde eher dazu führen, dass man diese Projektseite schnelltonnen kann. Ach ja: spaßigerweise steht da noch ein Importartikel von mir drin (angelegt unter meinem alten Benutzernamen: Benutzer:Jack User/Hoot Gibson. Hat sich auch schon längst erledigt. Fazit: ein Bot macht es schneller, besser und entlastet die Importeure vor unnützen Arbeit. Fragen wir mal Itti, was sie als Importeur von der Idee hält. Die Projektseite gibt es übrigens erst seit Januar 2013 und hat sich offensichltich nicht bewährt, immer noch offene Importartikel von 2011 und 2012 sind da gar nicht drin, wenn ich richtig gezählt habe knapp 60 Artikel. --Informationswiedergutmachung (Diskussion) 23:20, 2. Dez. 2014 (CET)Beantworten
Oh ja, das ganze lässt sich gut per Bot machen, nur müssen eine Menge Fakten beachtet werden. Ebenso auch das Ansprechen von Benutzern z.B. Das ist eine ganz interessante Idee, und ich als Importeur mach mich mit meinem Bot da ran. Das wird aber eine größere Sache. Also schauen wir mal, -- Doc Taxon@Disc – ♥BIBR♥ – 23:26, 2. Dez. 2014 (CET)Beantworten
Oh du mein Herzchen. Na klar, wenn da oben lang und breit erklärt ist, wie die Fachleute den Seiteninhalt aktualisieren, und dort als letztes Datum 2013 vermerkt ist, dann muss halt mal wieder jemand auf den Knopf drücken.
Jetzt mit 812 Einträgen und detaillierter Analyse aktualisiert.
@Doc Taxon: Die Wartungskat darf nicht leer sein; wurde irrtümlich aus der Vorlage herausgenommen – dann natürlich null Treffer.
Die fragliche Wartungsseite blieb deshalb auf Stand Sommer 2013, weil die abarbeitende Importeurin im Sommer 2013 verstorben war und ihre Nachfolger sich hier bislang nicht einbrachten.
Ein Bot oder Admin, der automatisch Benutzerseiten löschen würde, wäre bald knopflos.
Die von dir verlangte Benutzerseitenlöschung wäre dann und nur dann möglich, wenn seit dem Import überhaupt kein oder nur ein Mini-Edit erfolgte. Genau dieser Sachverhalt wird auf der fraglichen Wartungsseite auseinandergefieselt.
Vor irgendwelchen Aktivitäten müssen die Benutzer auf ihren Diskus angesprochen werden, und es muss ihnen ausreichend Gelegenheit zur Stellungnahme (rund ein Monat) gegeben werden. Nur diese Ansprache könnte als botgestützte Massenpost erfolgen. Benutzer müssen auch nicht pausenlos aktiv sein.
Kam es erstmal durch den Wirt oder gelegentlich andere Benutzer zu nennenswerten Bearbeitungen, wurde gar der Artikel schon zur Hälfte übersetzt, dann ist überhaupt keine Löschung von Amts wegen mehr möglich.
Schwierig ist der Fall, wenn zum gleichen Thema und ggf. von jemand anderem übersetzt schon ein Artikel im ANR steht; dann muss für alle erarbeiteten Passagen überprüft werden, ob sie inhaltsreicher sind als die ANR-Version.
Die grundsätzliche Politik mit Benutzerseiten ist, dass diejenigen, die dem Ziel der Enzyklopädieerstellung dienen, auch im BNR verweilen dürfen; sie fressen keinerlei zusätzliche Ressourcen mehr als ohnehin schon angefallen.
Der Umgang mit den fraglichen Benutzerseiten bedarf der Einzelfallprüfung und eines vorsichtigen Umgangs mit den Autoren. Eine automatisierte Kahlschlagsanierung, wie sie dir vorschwebt, wird es nicht geben.
Ja, ich mach erst noch drei andere Sachen. Eigentlich ist's schon fertig, aber war in der Testphase, als einiges dazwischen kam. Mir schwebt auch vor, wie ich mein ursprüngliches Konzept noch verbessern könnte, der wachsenden Erfahrung geschuldet. Ich kümmer mich schon darum, – Doc Taxon • Disk. • WikiMUC • Wikiliebe?! • 12:28, 30. Mär. 2018 (CEST)Beantworten
Veraltete Links zu EUR-Lex durch Vorlage(n) ersetzen
Letzter Kommentar: vor 6 Jahren33 Kommentare7 Personen sind an der Diskussion beteiligt
Die Regeln zur Verlinkung mit EUR-Lex haben sich verändert. Für die neuen Regel siehe z.B. das FAQ zur Verlinkung oder generell die Hilfe bei EUR-LEX. Es gibt Vorlagen zur Verlinkung von EUR-Lex ({{EG-RL}}, {{EU-Verordnung}} und {{EUR-Lex-Rechtsakt}}), die ich angepasst habe. Aber es gibt noch knapp 3200 Weblinks in Wikipedia, die das alte Format verwenden (Weblinks). Von daher habe noch eine neue Vorlage {{CELEX}} erstellt, die als Basis für die beiden ersten dient, aber auch für die anderen Rechtsakte ausser Richtlinien und Verordnungen verwendet werden kann, sofern sie eine CELEX-Nummer haben. Damit sollte es per Bot möglich sein, die veralteten Links durch die Vorlagen zu ersetzen.
Folgende Möglichkeiten sehe ich:
Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:<celex-nummer>:<sprache>:<format> <text>] nach {{CELEX|<celex-nummer>|<text>|sprache=<sprache>}} wandeln. Das Format braucht es dort nicht, es wird aktuell nur HTML und NOT verwendet, wobei NOT den Übersichtstab auswählt, das könnte man m.E. weglassen (wenn gewünscht gibt es dafür den Parameter tab bei {{CELEX}}).
Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CONSLEG:<celex-nummer>:<konsolidierungsdatum>:<sprache>:<format> <text>] nach {{CELEX|<celex-nummer>|<text>|<konsolidierungsdatum>|format=<format>|sprache=<sprache>}} wandeln
Alle URLs der Form [http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=OJ:<reihe>:<jahr>:<amtsblattnummer>:<anfangsseite>:<endseite>:<sprache>:<format> <text>] nach {{EUR-Lex-Rechtsakt|reihe=<reihe>|jahr=<jahr>|amtsblattnummer=<amtsblattnummer>|anfangsseite=<anfangsseite>|endseite=<endseite>|format=<format>|sprache=<sprache>|titel=<text>}} wandeln (wobei man Defaultwerte weglassen kann)
Als "Kür" könnte man auch versuchen, die {{CELEX}}-Links, wo sinnvoll/fachlich richtig in Verwendungen der Vorlagen {{EG-RL}} und {{EU-Verordnung}} umzuwandeln. Die Umwandlung von {{EUR-Lex-Rechtsakt}} in Verwendungen der Vorlagen {{CELEX}}, {{EG-RL}} oder {{EU-Verordnung}} dürfte noch einmal deutlich aufwändiger sein, weil man da die EUR-Lex-Suche nutzen muss, um den Amtsblatt-Verweis in eine CELEX-, Richtlinien- oder Vorlagen-Nummer umzusetzen.
Eine weitere Idee wäre, zumindest zu den Richtlinien/Vorlagen Wikidata-Items anzulegen/ergänzen. Dann könnte man die entsprechenden Vorlagen aufgrund der Wikidata-Items mit Werten versorgen. --S.K. (Diskussion) 16:04, 21. Feb. 2015 (CET)Beantworten
Okay, wobei damals "nur" die ganz alte Linkform in die neuere umgewandelt wurde. Da wäre eine Verwendung der Vorlagen m.E. "nachhaltiger", da bei EUR-Lex wohl immer mal wieder am URL-Format "gebastelt" wird... --S.K. (Diskussion) 21:03, 24. Feb. 2015 (CET)Beantworten
Vor einem Jahr war ich noch nicht in der Lage dafür eine Lösung zu finden, das hat sich inzwischen durch einige Neuerungen deutlich geändert. ev. werde ich mir vor einem Botlauf auch die Programmierung der betroffen Vorlagen vornehmen, um zukünftig leichter wartbare Systeme zu erhalten. Ich bin aber derzeit wegen RL und dem WP:WBWA zeitlich etwas knapp, bitte also noch um 2 Wochen Geduld. Frohes Schaffen — Boshomi☕⌨☺07:32, 19. Feb. 2016 (CET)Beantworten
Danke, Boshomi. Viel Erfolg beim WP:WBWA und ich würde mich freuen, wenn es mit dem Bot-Lauf klappt. :-) Wenn ich etwas beim Umbau der Vorlagen helfen soll, damit es für den Bot einfacher wird, gib Bescheid, was Du ändern willst. Vielleicht kann ich da schon etwas vorarbeiten. Danke und Gruss, --S.K. (Diskussion) 21:24, 19. Feb. 2016 (CET)Beantworten
So wie cih das gesehen habe, waren die Links nicht "kaputt", da wurde nur was umgestellt, weshalb es sich aber angeboten hat auf die Vorlage umzustellen. @S.K.: wir sind hier fertig, oder? :) Bot ist jedenfalls durch. --FNDE22:47, 27. Jun. 2017 (CEST)Beantworten
@FNDE: Danke!!! Sieht sehr gut aus. :-) Das was ich stichprobenartig angeschaut habe, hat alles gestimmt. Und ich finde auch keine URLs mehr mit dem Muster. Alles perfekt.
@Leyo: Prinzipiell könnten die Links natürlich auch innerhalb von Vorlagen wie {{Toter Link}} drin sein. Deine Weblinksuche mit Giftbots Tool findet noch einige Kandidaten, die potentiell auf die Vorlage umgestellt werden könnten. Bei manchen sollte es sich um Fälle handeln, bei denen wir bei der Diskussion gesagt haben, die mache ich von Hand (z.B. die beiden Treffer bei Glühlampe), aber bei anderen bin ich nicht sicher, warum sie von der Suche nicht gefunden wurden. Weiss nicht, ob @FNDE sich das noch einmal ansehen will/kann... ;-)
@S.K.: Manche sind teilweise einfach ohne Verlinkung in den Quelltext eingefügt worden, wieder andere mit der Vorlage "Internetquelle" verknüpft. Und für das Format mit COM haben wir keine Ersetzung definiert :) Beste Grüße --FNDE21:10, 28. Jun. 2017 (CEST)Beantworten
@FNDE: Okay. :-(:-) Die ohne Verlinkung könnte man noch einmal anschauen, Internetquelle wäre wohl ambitionierter, wegen COM schaue ich mal, wie da die Regeln sind und ob es da eine sinnvolle Lösung gäbe. :-) --S.K. (Diskussion) 07:24, 29. Jun. 2017 (CEST)Beantworten
Hatte heute endlich mal ein bisschen Zeit mir das Thema COM anzuschauen. Das geht leider nicht automatisiert, weil das zwar in eine CELEX-Nummer der Form 5<jahr><typ><dokumentennummer> umgewandelt werden kann (Beispiel), es aber zwei Typen gibt (PC und DC). Und die aktuellen Links haben - soweit ich es sehe - nicht genug Infos um den richtigen Typ automatisch zu wählen. :-( Werde ich von Hand machen (müssen).
@FNDE: So, nach langer Zeit habe ich die ganzen COM-Links abgearbeitet. Falls du noch Ideen wegen der Links in Vorlagen hast, wäre das klasse. Sonst werde ich das wohl nach und nach von Hand machen. Danke und Gruß, --S.K. (Diskussion) 21:33, 8. Apr. 2018 (CEST)Beantworten
Mit dieser Suchanfrage finde ich 166 Treffer. Vielleicht können wir uns ja etwas die Arbeit teilen: kannst du, S.K., nach den falsch-positiven schauen? Wenn wir die kennen, kann ich bei 95% der Treffer nochmal den Bot drüber jagen. Das muss ich aber nochmal extra vorbereiten. Schöne Grüße --FNDE23:50, 16. Jul. 2017 (CEST)Beantworten
@Leyo: Immer die, die am nächsten Montag anfängt. ;-) Nein, ich hatte in dem Umfeld eine längere Diskussion, die meine Wikipedia-Zeit und -Lust aufgebraucht hat. Nach einer gewissen Wikipause deswegen, hatte ich dann aufgrund anderer Off-Wiki-Prioritäten keine Zeit, fokussiert länger an dem Thema zu arbeiten. :-( In zwei/drei Wochen könnte es aber wieder soweit sein, dass ich etwas Zeit am Stück dafür finde. Versprechen tue ich aber noch nichts. Habe aber gesehen, dass Benutzer:FNDEs Abfrage bei mir „nur noch“ 67 Ergebnisse liefert… Kann man wohl fast manuell machen… --S.K. (Diskussion) 23:17, 6. Mär. 2018 (CET)Beantworten
Prinzipiell schon, nur haben die verbliebenen Fälle soweit ich sehe nichts mehr mit dem Bot-Lauf zu tun. Mal schauen, ob/wann ich für die verbleibenden Fälle etwas tun kann. --S.K. (Diskussion) 19:02, 13. Mär. 2018 (CET)Beantworten
Hinweise in Artikeldiskussionen auf erledigte Redundanzdiskussionen
Letzter Kommentar: vor 6 Jahren31 Kommentare4 Personen sind an der Diskussion beteiligt
Ich fände einen Hinweis in Artikeldiskussionen hilfreich, dass eine beendete Redundanzdiskussion stattgefunden hat. Das würde das stellen neuer Redundanzdiskussionen vermeiden, wenn kein Baustein mehr im Artikel vorhanden ist.
Ich stelle mir das ähnlich wie bei den vergangenen Löschanträgen vor. Beispielsweise in der Form "Die Redundanz das Artikels ARTIKEL_1 mit den Artikeln ARTIKEL_2 ARTIKEL_3 wurde am DATUM diskutiert." Wenn es mehrere Redundandanzdiskusssionen gab setzt der Bot mehrere Bausteine mit Verweis auf mehrere Diskussionen. Anders als bei den Löschanträgen ist das Ergebnis einer Redundanzdiskussion meist nicht automatisiert auszuwerten, daher würde ich das weglassen. Fehlt einer der verlinkten Artikel mittlerweile gibt es halt einen Rotlink - dann sieht man das auch direkt. --Zulu55 (Diskussion) Unwissen16:17, 23. Mär. 2015 (CET)Beantworten
Super, finde ich toll. Umgekher könnte der Bot natürlich auch schauen, welche Redundanzdiskussionen nicht als erledigt markiert wurden, und im Artikel der Hinweis auf die noch laufende Redundanzdiskussion fehlt. Das kommt ja immer wieder mal vor. Diesen Baustein könnte er dann nachtragen. --Zulu55 (Diskussion) Unwissen08:25, 21. Sep. 2015 (CEST)Beantworten
Hallo Zulu55, Sorry das hier solange nichts von mir kam. Irgendwie kam regelmäßig was dazwischen oder mir fehlte schlicht die Muße an der Baustelle weiter zu machen. Ein wesentlicher Teil der hier vorgeschlagenen Grundfunktionalität ist bereits implementiert. Ein paar erste Testedits habe ich im Beta-Wiki laufen lassen [1]. Vielleicht kannst Du Dir die mal anschauen, ob das so deinen Vorstellungen entspricht.
Hallo @Zulu55:, die eigentliche Funktion steht. Es hängt gerade noch an einem Teil der Datenbankanbindung wo die Bearbeitungsstati gespeichert werden. Ist nicht unbedingt mein Lieblingsthema, deshalb ist die Motivation das anzugehen nicht immer so groß. Aber ich bin auf dem Weg. Gruß -- Jogo.obb (Diskussion) 17:44, 7. Nov. 2016 (CET)Beantworten
@Zulu55: Kurzes Statusupdate, ich habe mich entschieden meinen eigenen Code für die Datenbankanbindung über Board zu werfen und auf ein ORM-Framework zusetzen, da meine Lösung nicht flexibel genug war. Dies erfordert jedoch eine gewisse Einarbeitung und größere Umbauarbeiten im restlichen Code. Hinzu kommt, dass ich gerade nicht immer so viel Zeit und Lust habe um das ganze zügig zu Ende zu bringen. Das heißt mit einem Abschluss des Projekts ist eher gegen Ende 1. oder Anfang 2. Quartal 2017 zu rechnen.
Hallo Zulu55, mein Plan sieht so aus, das ganze in der nächsten Zeit weiter halbautomatisch zu betreiben und nebenher noch ein paar Optimierungen vorzunehmen. Zummindest diese und nächste Woche sieht mein Zeitplan aber recht straff aus, daher weiß ich nicht ob ich dazu kommen werde.
Bezüglich der Optimierungen stellen sich gerade folgende Fragen:
Soll ein Hinweisbaustein bei Artikeln gesetzt werden, die als einzige übrig geblieben (Rest gelöscht/Weiterleitung) sind?
Soll ein Hinweisbaustein auf der Diskussionsseite von Weiterleitungen gesetzt werden? Ja, Nein, nur wenn bereits eine existiert?
Sollen die Bausteine rückwirkend gesetzt werden? Ich habe prinzipiell die Daten seit 2008 in der Datenbank.
Hi Jogo.obb, auch bei mir hats etwas länger gedauert. Gute Anmerkungen/Nachfragen, die allesamt für und wider haben. zu 1. guter Punkt. Ich würde sagen ja, damit man es nachvollziehen kann. zu 2. ich würde wieder sagen ja, damit man es nachvollziehen kann. zu 3. Ja, auf jeden Fall, sonst wäre es doch sehr unvollständig und willkürlich. --Zulu55 (Diskussion) Unwissen13:18, 13. Apr. 2017 (CEST)Beantworten
Nein ist noch offen. BTW liebe IP, dein Engagement zur Reduzierung der Länge dieser Seite in Ehren, aber Abschnitte ohne Rücksprache einfach auf Erledigt zu setzen hilft auch niemandem weiter. -- Jogo.obb (Diskussion) 23:15, 15. Jun. 2017 (CEST)Beantworten
@Zulu55: Keine Sorge, ich habe es nicht vergessen ;). Ich habe gerade nur ein paar Offwiki-Baustellen die etwas mehr Priorität geniesen. Eine große sollte in den nächsten drei Wochen vor erst erledigt sein. Dann, so hoffe ich, komme ich mal dazu das hier zum Abschluss zu bringen. Allzu viel sollte es eigentlich nicht mehr sein. Grüße -- Jogo.obb (Diskussion) 14:36, 19. Jun. 2017 (CEST)Beantworten
@Zulu55: Hey, ich traue mich fast gar nicht das zu sagen, aber ich habe es tatsächlich geschaft, mich hinter diese Sache hier zu klemmen. Sofern die Datenbank-Auslastung (es scheint gerade Probleme mit Wikidata zu geben) mich lässt, sollten hier bald viele Redundanz-Hinweise auftauchen. Viele Grüße -- Jogo.obb (Diskussion) 12:55, 24. Aug. 2017 (CEST)Beantworten
@Zulu55: So ich hab des Ding jetzt ein paar Mal auch im Automatikmodus laufen lassen und noch ein paar Kinderkrankheiten behoben. Jetzt sind zumindest alle 2017 abgeschlossenen Fälle markiert. Ich denke ich werde spätestens am nächsten Wochenende dazu kommen, den unbeobachteten Dauerbetrieb auf Labs einzurichten. Und dann können wir hier endlich mal einen Knopf hin machen. -- Jogo.obb (Diskussion) 19:39, 11. Sep. 2017 (CEST)Beantworten
@Zulu55: Seit heute Nacht läuft der Bot jetzt unbeobachtet einmal am Tag. Allerdings aktuell noch nur für die neu abgeschlossenen Diskussionen. Die alten würde ich gerne erstmal noch manuell anstoßen, für den Fall das ich doch noch irgendwas übersehen hätte. Grüße -- Jogo.obb (Diskussion) 17:09, 26. Sep. 2017 (CEST)Beantworten
Ich halte die Idee für unausgegoren und die Parallele zu Löschdiskussionen nicht für stichhaltig. Die eine Diskussion wird durch einen Admin-Entscheid beendet, die andere durch eine Auflösung der Redundanz, also durch normale Artikelarbeit. Wenn hier eine neue Diskussion eröffnet wird, heißt das, dass die Redundanz eben nicht beseitigt ist oder neu entstanden ist. Im zweiten Fall ist der Hinweis von vorne herein sinnlos, im ersten wurde entweder die Diskussion fehlerhaft beendet oder eine Redundanz aus Gründen des Einzelfalls bewusst in Kauf genommen. Allein in diesem letzten Fall besitzt ein Hinweis auf eine abgeschlossene Redundanzdiskussion eine gewisse Berechtigung. Das ist aber keine Aufgabe für einen Bot, zumal solche Gründe auch durch Zeitablauf und Editionsverlauf entfallen können. --Hajo-Muc (Diskussion) 23:18, 21. Mai 2018 (CEST)Beantworten
Der Bot verweist darauf, dass jemand händisch eine Redundanzdiskussion für erledigt markiert hat. Dass irgendeine Redundanzdiskussion für diesen Artikel bereits stattgefunden hat ist ohne den Baustein nur sehr schwer rauszufinden. Wenn die Diskussion fehlerhaft beendet wurde, dann hilft der Baustein ungemein überhaupt darauf zu kommen, dass eine Redundanzdiskussion bereits stattgefunden hat und man kann dann darauf ggf. verweisen. Wenn neue Gründe bestehen, dann gilt es das erstmal zu prüfen, dass tatsächlich eine neue Redundanz besteht - und auch da hilft der Baustein ungemein, darauf zu kommen, dass es schon eine Diskussion gab und diese zu finden. Ferner hilft der Baustein neuerliche Redundanzdiskussionen zum gleichen Redundanz-Thema zu vermeiden. --Zulu55 (Diskussion) Unwissen08:53, 22. Mai 2018 (CEST)Beantworten
Kategorie-Umsortierungen per Bot
Letzter Kommentar: vor 6 Jahren14 Kommentare9 Personen sind an der Diskussion beteiligt
Meinst du nicht, dass ich WP:~ kenne? Allerdings wäre es doch ziemlich umständlich, alle Kategorien einzeln dort einzutragen, das geht doch bestimmt einfacher. Ich werde das sicher nicht irgendwo diskutieren. Es ist offensichtlich, dass die Umsortierung die Abarbeitung begünstigen würde. 79.217.150.15321:52, 29. Apr. 2015 (CEST)Beantworten
Also du möchtest alle Artikel in die erste Ebene, verstehe ich das richtig? Kann man sicher machen, aber das ist eine sehr einschneidene Änderung, sollte ich das machen, hätte ich da vorher gerne einen Konsens darüber. Was allerdings nicht heißt, das es nicht ein anderer Botbetreiber übernehmen kann (ich möchte hier nur für mich sprechen nicht für andere). Gruß, Luke08151510:04, 30. Apr. 2015 (CEST)Beantworten
Nein, das möchte ich eben nicht. Also nochmal: Ich möchte alle Kategorien und Artikel, die derzeit in der zweiten Ebene stehen, in der ersten Ebene haben. Die Anzahl der betroffenen Artikel ist allerdings minimal: In Kategorie:Sportler (Deutschland) sind das 28 Artikel, in vielen anderen Kategorien maximal fünf, und in vielen Verbandskategorien sind gar keine Artikel betroffen. D.h. die Änderung betrifft im Wesentlichen Kategorien, und die werden sowieso regelmäßig wartungsmäßig bearbeitet, da sind die Botedits irrelevant und wiegen den Nutzen mehr als auf. 79.217.157.1411:09, 30. Apr. 2015 (CEST)Beantworten
Kannst Du mir vielleicht bitte kurz erläutern, was das Ziel dieser Wertungsaktion ist? Beim Lesen Deines Antrags hatte ich gehofft, dass man sich ein bisschen in Richtung einer Facettenklassifikation zu bewegen versucht (unglaublich!). Aber aus der Disk., die Du in der Wartungsakat. verlinkt hast ([2]), kann ich das nicht so richtig herauslesen. Um beim Beispiel Mexiko zu bleiben: Welche Kat. soll Adriana Fernández nach der Umstellung haben?--Cactus26 (Diskussion) 10:00, 7. Mai 2015 (CEST)Beantworten
Danke für Deine Mühe, mir das zu erklären. Ich denke, ich habe das Problem jetzt erkannt. Auf den ersten Blick ist erstaunlich., warum die Interpretation von "Mexiko" in "Kategorie:Gewichtheber (Mexiko)" als Staatsbürgerschaft ein Problem sein könnte... Wäre sie auch nicht, wären da nicht Unterkategorien, die das "Sport (Land)" anders deuten. Am Beispiel Lionel Messi erkennt man, wo das liegt. Dieser würde Kategorie:Fußballspieler (FC Barcelona) und Kategorie:Fußballspieler (Spanien) zum Spanier. Die Vereinskategorien sind also das Problem (vielleicht gibt es weitere). Nun versucht ihr, das Problem zu lösen, indem ihr das "Mexiko" in "Kategorie:Gewichtheber (Mexiko)" umdeutet als "war sportlich aktiv in" (als "Spezialisierung" von "hat(te) seinen Tätigigkeitschwerpunkt in").
Ich bin ehrlich: Ich halte das für chancenlos. Wenn man sich z.-B. Michael Stockton ansieht. Bei diesem fehlt "Basketnballspieler (Deutschland)". Mag sein, dass Du bei Deiner Umstellung daran denken würdest. Aber jemand, der nicht hauptberuflich Sportler-Artikel anlegt, denkt daran niemals und kommt nicht auf die Idee, das "Vereinigte Staaten" könnte was anderes meinen als Staatsbürgerschaft.
Ich muss weiterhin zugeben, dass ich des gesamte Kategoriessystem für kaum noch zu retten halte. Der hauptsächliche Fehler ist, dass es selbstverständlich ist, Schnittmengenkategorien völlig unabhängiger Eigenschaften zu bilden (Sportart x Land/Region). Dass bei einer präkombinierter Systematik der Pflegeaufwand des Kategoriekatalogs explodiert und nicht mehr bewältigbar wird, wird leider von zu wenigen erkannt (wenn Du Lust hast, ich habe mich mal mit dem Thema versucht zu befassen: [3]).
Ein weiteres großes (und zum Teil aus der Schnittbildung resultierendes) Problem ist, dass der Kategoriebezeichner nicht erklärt, was er eigentlich meint (so wie das "Mexiko" in den Sportartenkategorien).
Ein Schritt in die richtige Richtung wäre mMn an dieser Stelle ein etwas weitergehender Ansatz:
die Verschneidung Sportart x Land wird grundsätzlich entfernt
statt dessen wird eine neue "Assoziationskategorie" "hat(te) seinen Tätigkeitsschwerpunkt in <Land>" unter allen Ländern ergänzt (die für andere Dinge wie Sport später auch genutzt werden kann)
jedem Sportler wird eine (oder mehrere) "reinrassige" Sportartenkategorie und eine oder mehrere Kategorie für "Tätigkeitsschwerpunkt in <Land>" ergänzt
zudem (in Übereinstimmung mit dem geplanten Vorgehen) bekommt jeder Sportler direkt die Staatsbürgerschaft-Kategorie (auch hier mehrere möglich)
Ich vermute, dieses Spontankonzept berücksichtig noch nicht alles, auch sind aussagekräftige Kategoriebezeichner sicher "sperrig" (wobei da technische Möglichkeiten bestünden, das zu verbessern).
Letzter Kommentar: vor 6 Jahren16 Kommentare6 Personen sind an der Diskussion beteiligt
Von den ehemals 109 Provinzen Italiens wurden am 1. Januar 2015 zehn in Metropolitanstädte umgewandelt. In de.wiki haben wir dem mit einer Anpassungsaktion Rechnung getragen, bspw. bei Lemmas, Infoboxen, Navileisten, Listen, Kategorien. Es verbleibt das Problem, dass in den Artikeln zu den Kommunen, die bis 2014 den 10 Provinzen angehört haben und jetzt zu den neuen Metropolitanstädten gehören, im laufenden Artikeltext noch immer steht, dass sie der Provinz XY angehören, und nicht, wie es sein sollte, der Metropolitanstadt XY. Beispiel: Venaria Reale in der ehemaligen Provinz Turin, jetzt aber Metropolitanstadt; Sestri Levante (Fall Genua), Fiumicino (Fall Rom), usw usw. Dieses Problem dürfte mehrere hundert (wenn nicht tausende) Artikel betreffen, weswegen man darauf einen Bot ansetzen sollte, soweit möglich. Auf der entsprechenden Portal Diskussion:Italien#Città metropolitana hat :@$traight-$hoota:, ein Informatiker, gemeint, dass das möglich sein sollte, wobei es zu empfehlen sei, sich in den betreffenden Artikeln nur auf die ersten beiden Absätze zu beschränken, da an anderen Stellen, z.B. im Geschichtsabschnitt, eine Änderung den historischen Umständen keine Rechnung tragen könnte. Es sollten also in den Artikeln zu Gemeinden, die den Provinzen bzw. heutigen Metropolitanstädten Turin, Genua, Mailand, Venedig, Bologna, Florenz, Rom, Neapel, Bari und Reggio Calabria angehören, in den ersten beiden Abschnitten des laufenden Artikeltextes die Links auf die jeweilige Provinz auf Links zur jeweiligen neuen Metropolitanstadt umgestellt werden. Bei den Hauptstädten dieser Metropolitanstädte, bspw. Mailand oder Rom ist dies bereits manuell erledigt worden. Sollte meine Bot-Anfrage nicht den Standards entsprechen, würde ich gern Straight-Shoota bitten, die Anfrage zu ergänzen. Vielen Dank und Gruß --Black Smoker (Diskussion) Metropolitanstädte" class="ext-discussiontools-init-timestamplink">21:06, 16. Jun. 2015 (CEST)Beantworten
Anmerkung: Generell in irgendwelchen Artikeln alle Provinzen zu ersetzen geht nicht ("liegt neben der Provinz Parma"), aber alle Verwendungen von [[Provinz Turin]] auf das Weiterleitungsziel [[Metropolitanstadt Turin]] umzuändern sollte ein Bot können, analog mit Links zu den anderen 9 Artikeln. Betroffen sind diese 10 Provinzen: Bari|Bologna|Florenz|Genua|Mailand|Neapel|Reggio Calabria|Rom|Turin|Venedig. Artikellisten finden sich in den entsprechenden Linklisten, sind alleine für Turin etwa 500. --mfb (Diskussion) 22:10, 16. Jun. 2015 (CEST)Beantworten
So sollte es sein, aber nur bei Gemeindeartikeln, geografischen Artikeln oder Artikeln zu "zeitlosen" Themen (bspw. nicht bei Personen, die bspw. in der Provizn Turin geboren wurden; die können 1950 nicht in der Metropolitanstadt Turin geboren worden sein), wobei die Änderung wenn möglich nicht über die ersten beiden Artikelabschnitte hinausgehen sollte, weil sonst Geschichtliches betroffen sein könnte (wo die alten Provinzen bleiben sollen), wie Straight-Shoota schon sagte. Was der Bot nicht kann, muss man halt im Lauf der Zeit manuell machen. Aber es wäre angesichts der Artikelmassen schon ein enormer Gewinn. --Black Smoker (Diskussion) 22:30, 16. Jun. 2015 (CEST)Beantworten
Ich würde es sogar eher erst mal auf bestimmte Objektklassen wie eben die Gemeinden beschränken und dort eben auch nur in der Einleitung. Das ist ja schon mal ein ganzer Brocken Arbeit, der einfach abgenommen werden kann. Vor allem ist dort auch nur eine Handvoll Formulierungen wie „in der Provinz Turin“ vorhanden, die zusätzlich zur Sicherung vor unbeabsichtigten Änderungen einbezogen werden kann. --$traight-$hoota{#}23:13, 16. Jun. 2015 (CEST)Beantworten
Ja, ich wäre dankbar, wenn man dieses Mindestprogramm abspulen könnte. Ich sehe dann noch so einige andere Dinge, wo mir angesichts evtl Handarbeit schlecht wird:
Natürlich. Es geht eben nicht um den angezeigten Text, weil der in vielen Fällen auch nach wie vor richtig ist, etwa wie oben angeführt, in allen Fällen mit historischem Zusammenhang. Solche Feinheiten kann man nicht mit einem Boteinsatz lösen. Bei den Gemeindelisten könnte ich eventuell mit AWB mithelfen, aber frühestens am Wochenende. --Matthiasb – Vandale am Werk™ (CallMyCenter)22:48, 22. Jun. 2015 (CEST)Beantworten
Natürlich, deswegen auch der völlig unsinnige Verweis auf Punkt 7. Wegen der möglichen historischen Zusammenhänge soll der Boteinsatz auf die ersten zwei Absätze beschränkt werden. --mfb (Diskussion) 22:51, 22. Jun. 2015 (CEST)Beantworten
Danke für die Gemeindelisten, Straight-Shoota. Wie gesagt, angesichts der Artikelmassen wäre ich für die Aktualisierung der Gemeindeartikel dankbar, den Rest kann man dann manuell machen.--Black Smoker (Diskussion) 17:49, 23. Jun. 2015 (CEST)Beantworten
Der Bot ist konfiguriert und hat ein paar Test-Edits gemacht (hier nochmal der Direktlink zu den Benutzerbeiträgen). Ich hab die Edits soweit auch durchgeschaut, dass sie in Ordnung aussehen, aber von Black Smoker kam dann nichts mehr. Und ohne Rückmeldung, ob das der gewünschten Form entspricht oder noch Änderungen vorzunehmen sind, wollte ich auch nicht voll durchstarten. --$traight-$hoota{#}10:45, 9. Okt. 2015 (CEST)Beantworten
Letzter Kommentar: vor 6 Jahren70 Kommentare14 Personen sind an der Diskussion beteiligt
Hier befinden sich notwendige Korrekturen, die aber möglichst gebündelt durchgeführt werden sollten, darum wollte sich Xqt kümmern. Der Übersichtlichkeit her habe ich diese daher hier zusammengefasst. Viele Grüße, Luke08151500:31, 3. Okt. 2015 (CEST)Beantworten
Das nur als Stichprobe; ich habe in WSTM schlechte Erfahrungen mit sowas gemacht, weil das nicht nur in Verlinkungen, sondern auch als Parameter für Infoboxen auftreten könnte.
Bezüglich x vs. × geht's in Kategorie:Patronenmunition bzw. Liste Handfeuerwaffenmunition ziemlich drunter und drüber. Ich wäre für die einheitliche Verwendung von × (unter Beibehaltung/Einrichtung der entsprechenden x-Weiterleitung). Bei Dateinamen (wo's standardmässig keine Weiterleitungen gibt) ist es ggf. sinnvoll, die Dateinamen so zu belassen. --Leyo00:26, 29. Mär. 2015 (CET)Beantworten
@Leyo: Da ich eben gerade unten einen ähnlichen Auftrag hatte, was soll der Bot jetzt machen? x durch × ersetzen, oder noch mehr? Ich frag da lieber mal nach. Viele Grüße, Luke08151500:17, 26. Mai 2015 (CEST)Beantworten
Ich bin da leider noch nicht weitergekommen, und hab leider momentan mit andere Aufgaben noch viel zu tun, die dauern wohl noch. Ich könnte es noch machen (Programm steht noch aus), aber wenn ein anderer Botbetreiber Lust hat, kann er es auch gerne Übernehmen, der wird wohl schneller sein ;). Viele Grüße, Luke08151503:13, 11. Jul. 2015 (CEST)Beantworten
@Leyo: Direkt in der Suche zu filtern, ob sich der String innerhalb einer Vorlage befindet, ist nicht ganz so einfach, zumindest fällt mir dazu nicht ein wie man das lösen könnte. Man kann das aber während der Routine einfach überprüfen und den Fall überspringen, wenn sich das Match als Vorlage/Datei herausstellt. Beste Grüße --FNDE13:10, 11. Jun. 2017 (CEST)Beantworten
Wenn ihr mir helft herauszufinden was da noch alles ausgeschlossen werden müsste, bastel ich für diese Anfrage was zusammen. Bislang habe ich:
Tags: ref, gallery, nowiki, syntaxhighlight, code
Links im allgemeinen, also auch Dateieinbindungen
Zu überlegen wäre noch:
sollen Vorlagen generell mit einbezogen werden? In Infoboxen zum Beispiel sinnvoll
sollen der Beschreibungstext von Bildern berücksichtigt werden?
@Leyo: Habe das jetzt nur in der Vorlage Internetquelle gesehen, aber die Einzelnachweise werden wir ja ohnehin nicht anrühren, das ist zu riskant. Zitate in Bildern? Da wirds wohl wieder so kompliziert, dass wir die Bilder ebenfalls ausschließen sollten Vorlage:Smiley/Wartung/:p Schöne Grüße --FNDE22:35, 11. Jun. 2017 (CEST)Beantworten
@Leyo: Ich werd den Bot in einer Trockenübung drüber laufen lassen und kann euch dann sagen, wie viele Seiten am Ende tatsächlich betroffen sind. Dann können wir entscheiden, ob und wann es richtig los geht. --FNDE22:54, 11. Jun. 2017 (CEST)Beantworten
@Leyo, PerfektesChaos: von den 9.900 Treffern bleiben etwa 8.500 übrig, wo eine Ersetzung stattfinden kann. Ich habe mal die ersten 1.000 Seiten aufgelistet, wo eine Ersetzung durchgeführt wird. Die verbleibenden Seiten wurden aussortiert, wenn die Ersetzung innerhalb von folgenden Bereiche liegt:
In Grüne Gentechnik sollten die Titel wohl eher so belassen werden, auch wenn es natürlich als × gemeint ist. Eine Änderung wäre in solchen Fällen jedoch unproblematisch. Ansonsten habe ich bei meinen Stichproben nichts gefunden. --Leyo18:09, 14. Jul. 2017 (CEST) PS. Die Suchlinks in deiner Liste sind sehr nützlich.Beantworten
@Leyo: Okay, dann gehen wir am besten Mal den vorsichtigen Weg: externe Links lassen wir komplett raus, also auch den Beschreibungstext. Vorlage Internetquelle wird ebenfalls ausgelassen. Dann kann man dann schauen was noch übrig bleibt und ggf. einen zweiten Durchgang starten. Ich werde in diesen Auftrag übrigens #Leerzeichen zwischen Einzelnachweisen entfernen integrieren, dann können wir davon schon ein paar abarbeiten. Da es hier keinen Einspruch gab, gehts mit dem Auftrag heute Abend los. Beste Grüße --FNDE16:57, 17. Jul. 2017 (CEST)Beantworten
War für mich auch noch eine kleine Arbeitsbeschaffungsmaßnahme. Hab ca. 70 Artikel nachkontrolliert, die von diesem Muster betroffen waren. Passt nun alles soweit wieder. --FNDE18:58, 18. Jul. 2017 (CEST)Beantworten
@Leyo: wurde jetzt von 10k auf 1k reduziert. So wie ich das sehe, sind jetzt tatsächlich nur noch Suchmuster in Dateilinks, Galerien usw. vorhanden. Ein paar (<20) hat der Bot ausgelassen, weil es im Artikel Syntaxfehler gab. Die kontrolliere ich nochmal einzeln und lass den Bot erneut drüber laufen. Ansonsten sind wir hier fertig? --FNDE10:58, 20. Jul. 2017 (CEST)Beantworten
Vermutlich keine Artikel zur Lautschrift und ähnlichen Themen: Pinyin#Auslaute
nicht direkt an URLs heranziehen: Nordamerika (der Link sollte natürlich besser formatiert werden)
größere Mengen an Sonderzeichen in der Nähe sind in der Regel ein Zeichen dafür, dass ein Bot sich fernhalten sollte, hier hätte ein Entfernen des Leerzeichens immerhin nichts verschlechtert aber auch nichts verbessert.
Nichts in mathematischen Formeln, Programmcode und Zitaten ändern.
Ich mache das schon ab- und zu mit. Für einen Bot ist das m.E. nicht geeignet, ich lasse mich aber gerne vom Gegenteil überzeugen :) -- Gruß, aka12:56, 11. Aug. 2015 (CEST)Beantworten
WSTM bietet zwar eine benutzerdefinierte Ersetzung an, aber ein ! gehört auch zur Tabellensyntax. Und Linkziele wie etwa schlecht buchstabierte Dateinamen werden von WSTM vor der Ersetzung geschützt, genauso wie math-Bereiche, Syntaxhighlight und alle Kommentare.
mail-re gelegentlich, hat erfreulicherweise niemand interessiert, lassen wir Frau Streisand ruhen.
Hatte doch erst vor kurzer Zeit meinen Bot laufen lassen. Hat sich schon wieder was angesammelt? Mein Ersetzungsparameter sind noch da und ich kann jederzeit loslegen. @xqt21:34, 11. Aug. 2015 (CEST)Beantworten
@PerfektesChaos: ([^: ?|]) +(([,;:])|(?[^?])|(![^!])|(\\.[ \n])) (aus deiner verlinkten Seite) ist leider zu komplex für die Wikipedia-Suchfunktion.
CamelBot parst den wikitext nicht, sondern macht eigentlich nur relativ stupide ersetzungen, siehe source code, weshalb mich die beispiele von mfb eigentlich auch eher Aka's einschaetzung teilen lassen. einen einfachen, wenn auch langen regulaeren ausdrueck einzusetzen, wuerde nur dann sinn machen, wenn man die false positives (fast) alle benennen kann. wenn das jemand kann, kann ich auch eine entsprechende ersetzungsvorschrift dafuer basteln, es sei denn xqt hat das bereits getan.
wie geht denn dein bot vor, xqt? parst der den text ein bissl oder ist er so "doof" wie CamelBot? und kuemmert er sich auf anfrage um die gesamte wikipedia oder haengt er auf den RCs? wenn die ersetzungsvorschrift mal da waere, koennte ich anbieten, zusaetzlich CamelBot auf den RCs arbeiten zu lassen. -- seth22:02, 19. Aug. 2015 (CEST)Beantworten
@PerfektesChaos: ich erinnere mich. ich hatte nur noch keine zeit, mir anzuschauen, wie ich in perl den js-kram einbinden koennte. schien mir kompliziert zu sein. den python-code habe ich mir bisher auch nur kurz angeschaut. koennte aber sein, dass das leichter zu uebernehmen bzw. einzubinden waere. -- seth23:35, 29. Aug. 2015 (CEST)Beantworten
Entfernen von Whitespace-Kommentaren aus Wikilinks und URLs
Gelegentlich wird in Wikilinks und URLs ein html-Kommentar nur eingefügt, um einen Zeilenumbruch zu erreichen. Dieses Vorgehen hat einige Nachteile für andere Benutzer, insbesondere bei langen Artikeln, da dadurch das Auffinden einer URL deutlich erschwert wird. Konstruktionen wie
Beispiel für URL
http://example.org/das<!--
-->isteinbeispiel.html
oder
http://example.org/das<!-- -->isteinbeispiel.html
Beispiel für Wikilink:
[[Wikipedia:Bots<!--
-->/Anfragen]]
oder
[[Wikipedia:Bots<!-- -->/Anfragen]]
In Vorlagen ist das manchmal sinnvoll (nicht in URLs), da sonst teilweise gigantisch lange komplizierte Absätze ohne Struktur entstehen. Es wird zwar meiner Meinung nach viel häufiger angewandt als es sinnvoll ist, aber pauschal alles zu entfernen ist keine Verbesserung. --mfb (Diskussion) 18:45, 15. Mai 2015 (CEST)Beantworten
@Mbf: Die Anfrage ist natürlich für den ANR gemeint. Bei Vorlagen sind Zeilenumbrüche wegen der Lesbarkeit sinnvoll.
@Luke081515: Natürlich, aber die Bearbeitung ist vorläufig einfacher, wenn man das getrennt hält. Die Masse sind wohl Whitespace-Kommentare. Bei den anderen könnten auch einige False-Positive dabei sein. Frohes Schaffen — Boshomi☕⌨☺18:50, 15. Mai 2015 (CEST)Beantworten
Die Abfrage ist doch simpel (Peal-reg-expr o. ä.)). Und wenn man es nicht in einer Nacht erledigen will, hängt man es an irgendeinen beliebigen Bot dran der so oder so irgendwann an allen Seiten vorbei kommt. Pfiffigerweise ein Bpt, der den Eingang durchforstet. -- Summer • Streicheln • Note19:53, 16. Mai 2015 (CEST)Beantworten
nö. Wegen Einspruch/Rückfragen auf meiner DS hatte ich die weitere Bearbeitung gestoppt. Im Moment bin ich unterwegs und gab auch keinen Vollzugang auf meinen Server. Das muss also vielleicht bis zum Wochenende warten. @xqt21:11, 20. Mai 2015 (CEST)Beantworten
Die mit Satzzeichen bitte nicht ohne weitere Prüfung. Gleich der zweite Treffer (Kuba) wäre eine Verschlechterung. Der erste Einzelnachweis bezieht sich auf das Wort, der zweite auf den ganzen Satz. Der Punkt dazwischen hat durchaus seine Berechtigung, und ganz ohne Punkt ist es komplett falsch. --mfb (Diskussion) 20:17, 17. Okt. 2015 (CEST)Beantworten
@Leyo: Kann ich bei mir in die Warteschlange und fortlaufende Überprüfung mit aufnehmen, ist ja nichts anderes als oben mit den Bindestrichen. Benutzer:Xqt ist ja schon etwas länger nicht mehr online gewesen? Viele Grüße --FNDE (Diskussion) 20:10, 13. Apr. 2016 (CEST)Beantworten
Ja, leider ist xqt momentan inaktiv. Er hat sich zudem in diesem Abschnitt trotz Ping nicht geäussert. Daher ist die Chance wohl gering, dass xqt sich dieser Sache annehmen möchte. --Leyo22:31, 13. Apr. 2016 (CEST)Beantworten
Brainswiffer, die Botaufträge werden idR gesammelt auf dieser Seite besprochen. @Leyo: ich würde mich mal ransetzen und die o.g. Aufgabe automatisiert zur Verfügung stellen, dann werden die Fehler immer direkt abgeräumt. Wir haben dann nicht mehr diese Mega-Botläufe mit tausenden Edits und verschonen die Beos der Autoren. Die CSS-Geschichte muss dann ohnehin an anderer Stelle geklärt werden. Schöne Grüße --FNDE23:44, 27. Jul. 2017 (CEST)Beantworten
Wäre es nicht überhaupt sinnvoll einen Bot zu installieren, der nach page_id modus x alle Seiten durchläuft und alle nicht zeitkritischen kleinen Änderungen zusammenfasst? Das wäre dann wenigstens ein systematischer Ansatz, der nicht von zufälligen anderen Läufen abhängig ist.
Je nach Dringlichkeit könnte x ein Vielfaches von 7 sein (28,91,182,364,728) Auf diese Weise würde sichergestellt, dass sich Botedits für einen Artikel auf jeweils einen (lange im Voraus bekannten) Wochentag konzentrieren, und somit die Beobachtungslisten der Benutzer geschont werden. Frohes Schaffen — Boshomi☕⌨☺21:44, 28. Okt. 2015 (CET)Beantworten
Ich höre immer Beos schonen, ist ja auch sinnvoll, keine Frage. Klar machts auch Sinn, die bearbeitungen zu konzentrieren, aber wenn der Bot ein Botflag nutzt, kann der Benutzer zumindest leicht die edits ausblenden. Viele Grüße, Luke08151522:05, 28. Okt. 2015 (CET)Beantworten
IMO könnte man solche kosmetischen Änderungen schon irgendwo sammeln (analog zu c:Commons:File description page regular expressions) und dann periodisch durchführen. Diese Altlasten hier sollten aber erst einmal in einem Run eliminiert werden. Mit Botflag sehe ich wie Luke kein Problem. --Leyo22:43, 28. Okt. 2015 (CET) PS. Die mittels insource:/ S\.( )* *[0-9]+ *\- *[0-9]/ ausserhalb von Zitationsvorlagen gefundenen Falschformatierungen könnten gleich mitkorrigiert werden, auch wenn wohl wenige Artikel beide Typen aufweisen.Beantworten
Ich warne hier vor einer automatischen „Korrektur“.
Es gibt Seitenzahlen, in die das Kapitel integriert ist: S. 5-14 ist die 14. Seite des 5. Kapitels.
Im Treffer zu Haushund findet sich pages=119-26 – typisch für die Übernahme aus gedruckten Zeitschriften und deren Übernahme in die Publikationsdatenbanken. Das würde noch verschlimmert.
So wichtig ist das nun nicht irgendwo tief unten in den ungelesenen Endnoten, als dass man hier automatisierte Verschlimmbesserung lostreten muss, um eine typografische Petitesse durchzudrücken. Einfach so lassen; es mag manuell korrigieren, wer will, und ich verbessere es mit WSTM für die Lit-Vorlage gelegentlich unter menschlicher Aufsicht, falls die zweite Zahl größer ist als die erste. Was auch noch nicht gegen die abschnittsweise Seitennummerierung hilft.
Beim ersten Punkt hast du teilweise Recht. Allerdings kommt das IMHO sehr selten vor. Und wenn, dann nicht mit Leerzeichen vor und nach dem Strich.
Beim zweiten irrst du. Es handelt sich um einen Seitenbereich, wie unter DOI:10.1002/jez.b.21116 festgestellt werden kann. Am besten wäre „119–126“, aber auch „119–26“ ist bereits eine Verbesserung gegenüber „119-26“. --Leyo13:01, 29. Okt. 2015 (CET)Beantworten
Nee, dann lieber 119-26 als ASCII belassen; dann zieht es noch Aufmerksamkeit auf sich. Wenn da erstmal der Bis-Strich drin ist, findet es auch dein RegExp nicht mehr und ist verhudelt. Wir schreiben korrekt 119–126, oder wir lassen die Finger davon. Einfach mal nix machen; das ist nicht der Fließtext des Artikels, und wir haben im Bereich Zitationsformatierung -zigtausende viel viel schlimmerer Formate als die Frage, ob da untenrum ein kleiner oder großer Strich stünde. Wenn der Bot dann auch noch sinnentstellende Fehler in den ersten Fall hineinverballhornt, gibt es nur vermeidbaren Zoff mit den Autoren. LG --PerfektesChaos13:54, 29. Okt. 2015 (CET)Beantworten
Halbautomatisch wäre nicht das Problem; ich kann dir rund eine halbe Million Seiten nennen, wo man halbautomatisch was dran machen könnte. Das hier ist dagegen Luxusproblem. Du kannst ja mittels entsprechender RegExp die Seiten suchen, wo in irgendeinem Format links von einem Bindestrich drei oder vier und rechts nur eine oder zwei Ziffern stehen, und davor Seiten oder S. oder pages= etc. Und bei einer solchen Berichtigung darf es dann auch der richtige Strich werden. Etwas Gespür für die Publikationen und ihre Paginierung und die Herkunft der Zitation ist von Vorteil. Vornamen vor Nachnamen fände ich dann als nächste Stufe passend; kann gleich miterledigt werden und ist bei diesen Kandidaten oft zu finden. LG --PerfektesChaos17:12, 29. Okt. 2015 (CET)Beantworten
@Mfb: Ne, da hast du wohl was in den falschen Hals bekommen. Das ist markbotedits was Rollback mit Botflag erlaubt, und nachträglich dem vorherigen Edit auch eins verpasst. Bots nutzen aber das Recht bot was sich nur auf den aktuellen edit auswirkt, der Rest bleibt ohne. Viele Grüße, Luke08151513:41, 29. Okt. 2015 (CET)Beantworten
Nehmen wir doch Gut Adolphshof als Beispiel: Heute IP-Edits, danach ein Botedit. Nehme ich die Seite in die BEO auf, sehe ich sie ganz normal. Blende ich aber Botedits aus, verschwindet die Seite komplett von der BEO. Dass eine IP dort etwas bearbeitet hat, verpasse ich komplett wenn ich nicht zwischen 12:58 und 13:30 die Beobachtungsliste durchschaue. --mfb (Diskussion) 13:56, 29. Okt. 2015 (CET)Beantworten
Ja, das wäre das gewünschte Verhalten... aber selbst wenn ich eigenes .css und .js entferne (bzw. nur irrelevanteElemente behalte), verschwindet die Seite. Die Seite verschwindet sogar komplett aus dem Quelltext, liegt also an der Software. Habt ihr vielleicht irgendwelche Extrascripte die das reparieren? Vielleicht sollten wir die Diskussion verlegen, mit dem Botantrag hat das nichts zu tun. --mfb (Diskussion) 15:35, 29. Okt. 2015 (CET)Beantworten
Ach so, ja, das ist eine Einstellung die ich ziemlich schnell deaktiviert habe, weil meine Beobachtungsliste dann praktisch nur noch WP-Seiten hätte (Auskunft&co) und ich die Artikel nicht mehr finde. --mfb (Diskussion) 20:05, 29. Okt. 2015 (CET)Beantworten
@Leyo: Wenn du mir den gefallen tun würdest, und mir einmal Pattern, zu ersetzender Teil und einzusetzen Teil kurz auflistet, gehe ich das mit meinem neuen Halbautomatischen Tool durch, das hat sich gestern ganz gut bewährt. Ich blicke da leider in diesem riesen Abschnitt nicht ganz durch. Viele Grüße, Luke08151501:47, 30. Mär. 2018 (CEST)Beantworten
Letzter Kommentar: vor 6 Jahren11 Kommentare6 Personen sind an der Diskussion beteiligt
In etwa 1500 Artikeln (zumeist in Artikeln über Autorennen, sportliche Wettkämpfe, Konzerte u.ä.) findet man eine falsche Verwendung des Adjektivs "diesjährige/er". Kann man da nicht mal mit einem Bot drübergehen, und in die Diskussionsseite so etwas wie "Bitte ändern, weil das nachträglich immerjenes Jahres heißen muss und selbst dann, wenn es das aktuelle Jahr betrifft, ist es im nächsten Jahr schon veraltet." einbauen? Wenn ich die Artikel manuell ändere, lernen diejenigen Autoren es ja nie...--Mideal (Diskussion) 16:29, 9. Nov. 2015 (CET)Beantworten
@Leyo: ? Einfach mal Volltextsuche "in diesem Jahr" nur in Artikeln, allein damit gibt es über 15000 Ergebnisse Liste der Nummer-eins-Hits in Österreich (1973), "Liste der mexikanischen Kinofilme...", "Bob-Weltmeisterschaften...", Magdalenenfest. Hinzu kommen "in jenem Monat/Jahrzehnt/Jahrhundert" und "diesjährige(/m/n/r)", "demnächst" u.ä. Wendungen wie "wird ....sein" 8die sich auf beim Editieren aktuelle Entwicklungen/zukünftige Ereignisse beziehen und die Verwendung von "nächsten Monat" muss man wohl oder übel manuell sichten (letzteres ist n.m.M. meist korrekt verwendet).--Mideal (Diskussion) 16:34, 26. Nov. 2015 (CET)Beantworten
Liste der Nummer-eins-Hits in Österreich (1973) ist ein Beispiel, bei dem nichts zu ändern ist. "In diesem Jahr" bezieht sich eindeutig auf das unmittelbar zuvor genannte Jahr 1973. Auch "in jenem Monat" etc. sollte meistens unproblematisch sein. "diesjährig" etc. ist häufiger falsch. "wird ... sein" hat idealerweise die Vorlage:Zukunft, sofern eine Änderung zu erwarten ist ("Alpha Centauri wird in 25000 Jahren näher als Proxima Centauri sein" braucht keinen Hinweis). --mfb (Diskussion) 16:56, 26. Nov. 2015 (CET)Beantworten
@Mideal, Leyo:Hi, ich bin gerade auf der Suche nach sinnvollen Bot-Aufträgen und finde das eine als (Erst)Botprogrammierer zu bewältigende Aufgabe. Nur zur Klärung: Bei Uruguay Open 2012 zum Beispiel wäre der Botauftrag, auf der Diskussionsseite auf die Verwendung von "diesjährig" hinzuweisen, oder? Mein Vorschlag wäre, zusätzlich entweder den Erstautor oder den letzten Editor (armer Aka) noch zu benachrichtigen, damit das dann auch wirklich erledigt wird. Eine automatische Korrektur halte ich wie Mideal nicht für sinnvoll. Wenn das für alle okay ist und die Funktion noch nicht implementiert ist würde ich mich da mal dran setzen. LG --Zenith4237 (Diskussion • Beiträge) 22:24, 6. Dez. 2016 (CET)Beantworten
Hi, habe ja damals (leider) keine Rückmeldung bekommen (Wenn das für alle okay ist) und mich somit an ein anderes Projekt rangesetzt. Werde vermutlich auch in den nächsten Wochen keine Zeit haben, bin momentan etwas im Stress. Wenn jemand Lust hat, das zu machen – gerne. Kommt aber definitiv auf meine ToDo-Liste. LG --Zenith4237 (✎ • Beiträge • ±) 22:36, 27. Aug. 2017 (CEST)Beantworten
Minuszeichen als Gedankenstrich
Letzter Kommentar: vor 6 Jahren4 Kommentare4 Personen sind an der Diskussion beteiligt
Das Minuszeichen wird zurzeit recht oft als Gedankenstrich oder Streckenstrich missbraucht. Diese Abfrage liefert 200 Treffer, lässt man es ein weniger allgemeiner, kommt man sogar auf mehr als 7000 Treffer, was ein Fall für einen Bot wäre, wenn nicht einige wenige False-Positives drin wären (z. B. Schwierigkeitsskala (Klettern)). Die Frage ist, ob man die Abfrage noch etwas verfeinern könnte, sodass keine False-Positives mehr drin sind und ein Bot loslaufen kann (z. B. durch Ausschluss des Pluszeichens im Umfeld der Gedankenstriche). 79.217.150.11413:40, 24. Dez. 2015 (CET)Beantworten
Bei 200 Ergebnisse könnte ja vllt. mal jemand kurz die Liste durchgehen und falsch-positive flaggen. Bot kann ich dann drüber laufen lassen, das haben wir schon mal in ähnlicher Weise gemacht. --FNDE21:29, 27. Jan. 2018 (CET)Beantworten
Könnte hier jemand dann die korrekten Zeichen, die ersetzt werden sollen einmal pasten? Ich hab eben mir versucht das aus den Artikeln zu holen, und hatte immer zwei Zeichen, die, als ich sie eingefügt habe komplett gleich aussahen. Das möchte ich dann ungern so in mein Skript einfügen. Viele Grüße, Luke08151501:54, 30. Mär. 2018 (CEST)Beantworten
Liste über ungewöhnliche Kategorienstruktur
Letzter Kommentar: vor 6 Jahren4 Kommentare3 Personen sind an der Diskussion beteiligt
Könnte jemand bitte einen Bot schreiben, der das für alle Artikel überprüft und in eine Tabelle (Verlinktes Lemma, Kategorie, Unterkateogrie) schreibt?
Was man tun muss:
Dabei sollen nicht nur direkte Unterkategorien überprüft weden, sondern beliebige Tiefen. Dazu muss zuerst ein Kategoriebaum (bzw. Wald / DAG) aufgabaut werden. Dann wird für jeden Artikel überprüft, ob es einen Pfad von einem Wurzelknoten zu einer benutzten Kategorie gibt, welche über eine andere benutzte Kategorie führt (das ist ein wenig schwer auszudrücken ... wenn mir jemand den Kategorie-Baum im JSON-Format geben kann und die Kategorien aller Artikel auch als JSON kann ich das auch selbst machen)
@Doc Taxon: Passiert hier noch etwas? Dann sollte man aber wissen, was der Antragsteller bezweckt, denn je nachdem könnte bzw. sollte man die Fälle ausschließen, in denen diese Struktur ggf. erwünscht ist, bspw. DDR-Personen in Deutschland-Personenkategorien.
Letzter Kommentar: vor 6 Jahren10 Kommentare4 Personen sind an der Diskussion beteiligt
Die RIAA hat ihre Datenbank umgestellt, nun müssten über zweitausend Links geändert werden. Leider geht nicht alles per Bot, aber die einfachen Fälle dürften machbar sein.
Die unteren beiden sind eben keine reinen Ersetzungslinks, sondern hier muss der Bot noch etwas im Link umbauen wie oben beschrieben. Ich hoffe, dass es jetzt verständlich und machbar war. --Ali1610 (Diskussion) 21:55, 6. Jan. 2016 (CET)Beantworten
@Boshomi: Ich bin mal testweise willkürlich ca. 20 Links vom 7.1., die auf deiner Liste stehen, durchgegangen. Bei allen war sowohl die Version vor als auch die nach dem Fix defekt. Der Bot war hier also nicht schuld. Da muss manuell nachgearbeitet werden, wie von mir schon im Anfangspost beschrieben wurde. Oder wir finden einen Weg, wie man auch die per Bot fixe kann. Generell würde das gehen, aber da müssten mehrere Parameter geändert werden. --Ali1610 (Diskussion) 23:25, 8. Jan. 2016 (CET)Beantworten
@Ali1610: Die URLs in der angeführten Liste waren vor dem Botlauf nicht im ANR, natürlich kommen da noch Useredits dazu, die ebenso nicht funktionieren, aber ich kann über die API nicht unterscheiden, von wem die URL eingetragen wurde. Ich habe nur an den 3 Tagen die Domain eingelesen, wobei meine erste Einlesung zu einem Zeitpunkt stattfand, als der Bot möglicherweise schon gearbeitet hat, also ist es möglich dass auch unter dem Datum 5. Jänner URLs tote URLs enthalten sind, die es zuvor nicht gab. Frohes Schaffen — Boshomi☕⌨☺23:35, 8. Jan. 2016 (CET)Beantworten
@Boshomi: Ja, das kann durchaus sein. Ich habe mal die Links angeschaut, und theoretisch könnten viele durch einen Bot fixbar sein, allerdings muss der Bot dafür ziemlich schlau sein. Beispiel:
Dann blieben nur die übrig, bei denen zwei Parameter oder mehr ausgefüllt sind... Da wäre dann evtl. zu überlegen, ob man dann generell nur den "artist"- oder nur den "title"-Parameter heranzieht. Denn eine Änderung von beiden könnte eine Nichtfunktion des neuen Links zur Folge haben. Bei diesem Link funktioniert es sowohl, wenn man nur den title-Prameter ersetzt, als auch, wenn man nur den artist-Parameter ersetzt, und sogar beide gleichzeitig funktionieren... --Ali1610 (Diskussion) 23:54, 8. Jan. 2016 (CET)Beantworten
Letzter Kommentar: vor 6 Jahren10 Kommentare3 Personen sind an der Diskussion beteiligt
Teilweise wird mittels einer unnötig langen URL auf Google Books verwiesen. Ich fände es sinnvoll, wenn zumindest in gewissen Fälle die URLs durch die Vorlage:Google Buch ersetzt werden könnten (Beispiel) – auch, um einen einheitlicheren Linktext zu erhalten (Beispiel). Kandidaten sind beispielsweise mittels insource:/\[https?\:\/\/books\.google.{4,20}id=[^ ]+ [Oo]nline/ zu finden. Am einfachsten wäre es wohl, zunächst die Fälle anzugehen, bei denen der Link im Parameter Online enthalten ist. Die Cirrus-Suche machte da aber nicht mehr mit. --Leyo03:06, 23. Jan. 2016 (CET)Beantworten
Hallo, anders als in deinem Beispiel, sollte dann aber die Information über die verwiesene Seite und ggf. der Texthervorhebung übernommen werden. Des Weiteren sollte für die von dir vorgeschlagenen Bücher (soweit ich sehen kann aus dem 19 Jhd. als als Volltext bei Google Books abrufbar) der Parameter "Linktext=Volltext" gesetzt werden. --Cepheiden (Diskussion) 12:17, 23. Jan. 2016 (CET)Beantworten
Im ersten Beispiel habe ich die Seite ja übernommen. Beim zweiten war die Seitenangabe bei einem Parameter ohne erkennbare Auswirkung drin.
Ich denke schon, dass es da Möglichkeiten gibt, z.B. wenn man das Jahr auswertet, so erfasst man zumindest einige Einbindungen. Man müsste den RegEx/Bot-Experten aber entsprechende Beispiele vorgeben, oder nicht? --Cepheiden (Diskussion) 08:11, 24. Jan. 2016 (CET)Beantworten
Die Intention meiner Anfrage war es nicht, auf Volltext oder nicht zu prüfen, sondern einfach mal die Vorlage einzusetzen. Bei den meisten der mittels insource:/\[https?\:\/\/books\.google\.[^ ]+\]/ gefundenen Treffern etwa, bei welchen der Weblink im Artikel als [1] erscheint, ist die Vorlage beispielsweise auch ohne Volltext-Prüfung eine deutliche Verbesserung gegenüber dem Ist-Zustand. --Leyo22:25, 24. Jan. 2016 (CET)Beantworten
Letzter Kommentar: vor 6 Jahren14 Kommentare3 Personen sind an der Diskussion beteiligt
Hallo, Folgendes hatte ich auf FzW bereits gefragt, dort konnte mir offenbar keiner helfen. Daher jetzt eine Botanfrage:
Ich möchte öfters Inhalte von Kategorien sortiert nach anderen systematisch angelegten Kategorien sortiert bekommen. Zum Beispiel würde ich mir gerne den Inhalt von Kategorie:Filmkomödie anzeigen lassen, sortiert nach den Unterkategorien von Kategorie:Filmtitel nach Jahr. Das Ergebnis sähe dann z.B. so aus:
Filmtitel 1888
Filmkomödie xy
Filmkomödie yz
Filmtitel 1889
Filmkomödie ab
Filmkomödie bc
Klar, händisch kann ich das mit CatScan machen. Gibt es eine Möglichkeit, das automatisch zu machen? Ich hätte gerne (man darf ja noch träumen) ein Tool mit Formular:
Kategorie, aus der Artikel sortiert werden sollen die Sortiert werden soll: ___________ (hier z.B. "Filmkomödie")
Kategorie, die Kategorien enthält, nach denen alphabetisch sortiert werden soll: ___________ (hier z.B. "Filmtitel nach Jahr")
Ich bin scho noch dran, nur in den letzten Tagen hats mir einmal komplett das Framework zerschossen, da musste ich große Teile neuschreiben. Ich bin schon noch dran, nru es kann sich noch etwas hinziehen
@Luke: "a)" für das was oben im Beispiel "Filmtitel nach Jahr" ist; also keine Unterkategorie von "Filmtitel nach Jahr" (gibt's in dem Beispiel auch gar nicht). Für das was oben "Filmkomödie" ist gerne einstellbar von 0 bis 7. Falls das nicht geht bitte 0 (nur Seiten die direkt in der Kategorie Filmkomödie sind). --Zulu55 (Diskussion) Unwissen10:59, 15. Mär. 2016 (CET)Beantworten
Vllt wirds doch fixer fertig, der Bot ist jetzt von Code her fertig geschrieben, muss noch gerade durchs Review, dann teste ich ihn, und dann kanns losgehen. Viele grüße, Luke08151517:24, 13. Apr. 2016 (CEST)Beantworten
Moin, ich ab leider derzeit recht wenig Zeit für WP etc. die, die ich habe verwende ich daher für Sachen, die mir in dem Augenblick Spaß machen, und da sitze ich gerade an einem Programm, was für außerhalb die WP ist. Daher schreibe ich das Skript derzeit nicht weiter, auch wenn ich dir gerne den Wunsch erfüllen würde, daran liegt es nicht.
Wenn allerdings ein anderer Techniker in der zwischenzeit übernehmen möchte: Ich habe nix dagegen.
Viele Grüße, Luke08151519:57, 29. Okt. 2016 (CEST)Beantworten
@Magnus Manske: Könnte man das nicht schön in Petscan integrieren? Beim sortieren gäbe es dann die Option eine Kategorie einzutragen z.B. hier "Kategorie:Filmtitel nach Jahr". Die Ergebnisse werden dann nach den darin enthaltenen Kategorien (Tiefe 1) (in diesem Fall Jahreskategorien) alphabetisch sortiert. Die Ausgabe könnte dann abgesetzt nach den Jahreskategorien erfolgen. --Zulu55 (Diskussion) Unwissen09:45, 19. Jul. 2017 (CEST)Beantworten
Suche nach speziellen Bildern im Mineralbereich
Letzter Kommentar: vor 7 Jahren7 Kommentare4 Personen sind an der Diskussion beteiligt
@Doc Taxon: Ich bewundere ja deine deine Motivation, hier fast wirklich jeden Botauftrag zu übernehmen. Mehr als ein grobes Konzept hatte ich mir noch nicht zurechtgelegt, also nur zu. Gruß, -- hgzh19:35, 10. Mär. 2016 (CET)Beantworten
Ich habe jetzt eine Weile suchen müssen … Ich wollte erst schreiben, das gibt’s doch schon, denn mir ist das gelegentlich schon passiert und jedes Mal wurde die von dir gewünschte Korrektur anschließend von Crazy1880 durchgeführt (vergleiche zum Beispiel Spezial:Diff/146824923/146861988). Das scheint aber kein (serverbasierter) Bot zu sein. --Speravir (Disk.)22:02, 23. Mär. 2016 (CET)Beantworten
Guten Morgen zusammen, nein, ich bin definitiv kein Bot. Ich würde diese Anfrage aber unterstützen. Keine könnte man auch etwas programmieren, was unnötige Leerzeichen aus Kategorien herausnimmt. mfg --Crazy188006:40, 24. Mär. 2016 (CET)Beantworten
Geht es denn nur darum <references /> hinter ==Einzelnachweise== zu setzen, oder soll der Abschnitt generell hinzugefügt werden wenn Einzelnachweise vorhanden sind? Viele Grüße --FNDE (Diskussion) 18:08, 24. Mär. 2016 (CET)Beantworten
Für einen Bot ist das alles andere als einfach, weil man ihm mühevoll beibringen müsste, wo genau das <references /> hingehört. Aber für aktuell 37 Artikel lohnt der Programmieraufwand sowieso nicht, die kann man schneller per Hand fixen.--Mabschaaf18:27, 24. Mär. 2016 (CET)Beantworten
Es gibt ja nicht nur den Fall mit <references />, sondern auch das eingebettete <references> ... </references>. Des Weiteren kommt hinzu, dass man dem Bot dann beibringen müsste, dass er ausgeklammerte Einzelnachweise nicht mit berücksichtigt. (siehe Artikel Systemsteuerung; einer der 37 Artikel) Also alles das was innerhalb der Kommentar-TAGs steht. mfg --Crazy188019:34, 24. Mär. 2016 (CET)Beantworten
Ausgeklammerter Einzelnachweis? Ach so, der ganze auskommentierte Abschnitt zum God Mode. Den werde ich mir nachher mal näher ansehen, denn die Beschreibung ist als solche korrekt. --Speravir (Disk.)20:31, 24. Mär. 2016 (CET)Beantworten
Ich weiß nicht, für 37 Artikel fehlt mir gerade die Inspiration um dafür tätig zu werden :) Stellt sich natürlich die Frage, wie häufig die Refs bei neuen Artikeln vergessen werden. Sollte das täglich der Fall sein, so könnte man den menschlichen Autoren schon etwas Arbeit ersparen. Viele Grüße --FNDE (Diskussion) 23:56, 6. Apr. 2016 (CEST)Beantworten
Klar, wenn es dafür ein fertiges Programm gibt, kannst du das ja übernehmen. Um wie viele Artikel gehts eigentlich konkret, haben wir da mal ein paar verlässliche Zahlen? --FNDE17:38, 30. Apr. 2017 (CEST)Beantworten
@FNDE: Über die Zahlen kann ich dir im Moment noch nichts sagen, dazu kommt noreferences.py noch nicht mit responsiven Einzelnachweisen klar: Bei Deutschland fügt er korrekterweise nichts hinzu, aber bei Vereinigte Staaten will er als Beispiel <references /> in dem Abschnitt Anmerkungen hinzufügen. Mache mich da demnächst mal dran, dannWenn man das hinzufügt, ist er eigentlich ready-to-rumble. LG --Zenith4237 (✎ • Beiträge • ±) 21:06, 9. Mai 2017 (CEST)Beantworten
@FNDE:,@Zenith4237:,@Mabschaaf:Wäre es nicht auch sinnvoll mal überall die Einzelnachweise responsive zu formatieren? Also <references /> gegen <references responsive /> auszutauschen, sofern mehr als z.B. 10 Einzelnachweise vorhanden sind? Gerade auf großen Bildschirmen empfinde ich dies als eine ziemliche Verbesserung die recht einfach zu verwirklichen sein sollte und eine Vielzahl von Artikeln betreffen würde. (Bitte entschuldigt dass ich in der Wikipedia noch nicht so viel Erfahrung gesammelt habe und mit eventuellen Vorgehensweisen diesbezüglich noch nicht vertraut bin). Gruß Volker-Morath (Diskussion) 00:29, 26. Sep. 2017 (CEST)Beantworten
Hallo,
mir ist aufgefallen, dass es in der neusten Version des VisualEditors die Möglichkeit gibt, Links, die nur aus dem Linkziel bestehen, automatisch zu konvertieren. Ist es möglich, einen Bot so zu programmieren, dass er alle diese Links automatisch konvertiert? Es gibt teilweise sehr viele von solchen Links, vgl.: elementary OS#Referenzen. -- Live Long and ProsperMotte001 • Diskussion • 18:50, 21. Mär. 2016 (CET)Beantworten
@FNDE: Nein, es werden automatisch Meta Daten hinzugefügt. Bsp: <ref>[https://www.youtube.com/watch?feature=player_embedded&v=wtxmBJKMrDI Special Live Hangout]</ref> zu <ref>{{Internetquelle|url=https://www.youtube.com/watch?feature=player_embedded&v=wtxmBJKMrDI|titel=Announcing Freya: Special Live Hangout|autor=elementary|datum=2015-04-11|zugriff=2016-04-03}}</ref>. Einfach im grafischen Editor einen Einzelnachweis anklicken und dann erscheint da ein kleines Fenster, in dem der "konvertieren" Button ist-- Live Long and ProsperMotte001 • Diskussion • 18:12, 3. Apr. 2016 (CEST)Beantworten
@Motte001: Jetzt verstehe ich was du meinst :) Man müsste sich darauf einigen, welche der Bot denn genau verwerten soll. Soll es eine <h1>-Überschrift sein, oder sollen die Daten aus den Metatags der HTML-Seite ausgelesen werden? Zweiteres wäre sicher sinnvoll, wird aber vorrangig nur auf Nachrichtenseiten oder Blogs einheitlich verwendet. VG --FNDE (Diskussion) 18:19, 3. Apr. 2016 (CEST)Beantworten
@FNDE: Natürlich kann man dem Bot nicht sagen: "klicke jeden Link an und dann auf konvertieren", aber kann man nicht den vorhandenen Algorithmus "einfach" per copy+paste in den Code eines Bots einfügen und dann alle Seiten nach nicht konvertierten Quellen durchsuchen lassen? MediaWiki ist ja OpenSource -- Live Long and ProsperMotte001 • Diskussion • 18:55, 3. Apr. 2016 (CEST)Beantworten
@Motte001: der Algorithmus ist nicht wirklich kompliziert, da werden wie gesagt nur Metatags extrahiert. Ich finde die Idee sehr gut, würde aber vorschlagen für den ersten Test lediglich Seiten einzubeziehen, wo man die genaue Struktur kennt. Links auf SPON/FAZ/SZ usw. kann man problemlos umwandeln, da es dort immer spezielle Metatags gibt. Wenn das läuft kann man überlegen, wie man das System weiterentwickelt. Ich bin dafür nur solche Links umzuwandeln, wo nachträglich nicht verbessert werden muss :) --FNDE (Diskussion) 20:24, 3. Apr. 2016 (CEST) Technisch gesehen ist das keine große Sache. Viele Grüße --FNDE (Diskussion) 20:24, 3. Apr. 2016 (CEST)Beantworten
Das Teil macht die Auswertung je nach Website dann schon selbst.
Die Websites liefern unterschiedlich brauchbare Ergebnisse.
Auch wenn man von der gleichen Domain schon ein Dutzend brauchbare Texte bekommen hatte, haut sie einem dann doch wieder irgendwelche konfusen Sondermeldungen dazwischen.
Da ich selbst eine solche Anwendung betreibe, habe ich leidvolle Erfahrungen mit Automatismen.
Wenn es schon ein (menschlich) betiteltes Weblink gibt, sollte man auf jeden Fall die Finger von lassen.
Oben steht was von <ref>[https://www.youtube.com/watch?feature=player_embedded&v=wtxmBJKMrDI Special Live Hangout]</ref> zu <ref>{{Internetquelle|url=https://www.youtube.com/watch?feature=player_embedded&v=wtxmBJKMrDI|titel=Announcing Freya: Special Live Hangout|autor=elementary|datum=2015-04-11|zugriff=2016-04-03}}</ref>
Das bleibt dann für einen Bot tabu.
Das Auffinden von nackten, unbetitelten URL ist nicht trivial. Wenn man das automatisch macht, zerschießt man etliche anders beabsichtigte Formatierungen. Relativ robust ist wohl, wenn die URL in <ref> und </ref> eingeschlossen ist.
Um manuell von den nächsten Autoren nachkontrollieren zu können, werden traditionell an die Umschreibung Kommentare angehängt.
Die hier stammen von einer der letzten Aktionen dieser Art um 2008; mit der Nachkontrolle ist man aber wohl noch nicht ganz fertig geworden.
Hey @PerfektesChaos: Danke für den Input! Mein Vorschlag war ohnehin zunächst nur alle großen Nachrichtenportale einzubeziehen, alleine dafür gibt es mehrere zehntausend mögliche Änderungen. Weniger bekannte Seiten haben u.U. eine Struktur, die man mit dem Bot nicht abbilden kann. Daher die Idee, vorrangig auf das Metatag mit title= zurückzugreifen.
Deinen Hinweis mit dem Youtube-Link verstehe ich nicht ganz, würdest du solche Änderungen nicht durchführen lassen?
Die Links würde ich so hier filtern: /\<ref\>( *\[http:\/\/www\.spiegel\.de[^\]]*\][^\<]*)\<\/ref\>/
Ich hatte schon überlegt ob man für so ein Vorhaben (zur Zeit) überhaupt eine Botflag bekommt. Es sind zwar nicht direkt kosmetische Eingriffe, aber wäre ja blöd wenn man da jetzt Arbeit reinsteckt ohne den Bot später im Einsatz zu haben. Viele Grüße! --FNDE (Diskussion) 11:18, 4. Apr. 2016 (CEST)Beantworten
In dem genannten Beispiel hatte ein menschlicher Autor einen Linktitel vergeben; vielleicht einzelne Teile kursiviert, vielleicht weitere Hinweise gegeben, vielleicht etwas übersetzt oder transskribiert, vielleicht redundante Passagen des Textes, mit dem es bei Youtube eingestellt ist, herausgekürzt oder es gibt eine Folge mehrerer Links, die „Teil 1“, „Teil 2“ und „Teil 3“ heißen.
Wenn ein Bot sowas mit irgendwie automatisch generiertem Zeugs überschreibt, ist das Botflag bald futsch.
Dein RegExp erwischt bereits betitelte Spiegel-Artikel bzw. Spiegel Online, bei denen schon mal jemand was gemacht hatte, etwa auch typografisch nachgearbeitet, und bei denen sogar Ursprung und Datum bereits dahinter stehen darf. Kein Handlungsbedarf, kann zur sogenannten Verschlimmbesserung führen, weil du die Infos dahinter (etwa auch Zitate oder Hinweise zum Inhalt [„Titelgeschichte“; „Gespräch“; „Interview“]) eliminierst.
Grundsätzlich ist das bei nackten URL eine Botflag-fähige Aufgabe, aber braucht manuelle Überwachung und geht nur pro Domain/Subdomain, und bei manchen URL-Schemata merkt man dann auch, dass die Antworten zuverlässig sind und bei manchen nicht. Außerdem können Weblinks halb oder ganz defekt oder veraltet sein, ohne sich mit 404 zu melden, sondern statt dessen was von Suchmasken erzählen.
@PerfektesChaos: Okay, das macht absolut Sinn. Wir sollten uns also nur auf Refs wie <ref>[http://www.spiegel.de/*]</ref> beschränken.(?) Denkbar wäre natürlich den vorhandenen Linktext in die Vorlage Internetquelle zu integrieren. Denkst du denn, dass bei SPON/FAZ usw. so viele individuelle Linktexte existieren? Bei Nachrichten wird ja i.d.R. nur der Titel verlinkt.
Nicht einmal das; weil es geklammert und damit bereits ein menschlich individuell betitelter Link ist. Das kann dann auch nur noch durch Menschen umgeschrieben werden.
Nur für den Fall, dass es dazwischen auch keinerlei Whitespace gibt, wäre bei Klammern zu unterstellen, dass dort nur dumpfes [17] steht.
Wenn du aber mal auf Artikel aus Jahreszahlen oder Lemmata beginnend mit „Nekrolog“ gehst und dir dort die letzte Spalte anguckst, wirst du merken, dass selbst [17] sinnvoll sein kann; nur innerhalb der <ref> wäre eine einsame [17] nicht so prickelnd.
Zotero dürfte alles abdecken, was andere Tools auch lesen können; notfalls kann man es dort mit Formatbeschreibung zur weltweiten Nutzung einbringen.
@FNDE: Wir haben die Vorlage {{Weblink ohne Linktext}} die von Benutzer:CactusBot auf Anforderung verteilt wird. Das Abarbeiten dieser Vorlage stellt sich in aller Regel als mühsehlig heraus, und ist bestimmt nicht mit einfacher Regexp-Trickserei lösbar. In manchen Fällen kann ein Bot aushelfen, allerdings sollte der Antragsteller schon sehr genau wissen in welchem Kontext die unbeschriftete URL steht, denn nur so kann der Bot sinnvolle Arbeit leisten.
Ich habe diese Wochenende gut 1700 URLs von retro.seals.ch auf www.e-periodica.ch umstellen lassen. Nur das Umstellen der URLs ist eine relativ triviale Aufgabe, auch das Fixen der rund 10 % toten Links war eher einfach. Es wurde aber auch angeregt dafür gleich eine Vorlage zu erstellen. Es wäre recht einfach hierfür die 1001ste Datenbanklinkvorlage zu erstellen, aber die Domain wir derart unterschiedlich verwendet, dass eine tatsächlich einheitliche Vorlage wohl nur mit massiver Handarbeit in die Artikel eingearbeitet werden könnte, denn in den meisten Fällen existiert schon eine brauchbare Linkbeschriftung. Zudem gibt es für jede einzelne URL eine korrespondierende DOI, sodass ich heute einer generischen auf DOI und citoid basierenden Lösung den Vorzug gegenüber einer neuen Vorlage geben würde. (Für den nächsten Schritt fehlt mir aber eine sinnvolle Möglichkeit die DOIs über die neuen URLs abzufragen.) Frohes Schaffen — Boshomi⌨15:43, 4. Apr. 2016 (CEST)Beantworten
@FNDE: Mir ist ein mögliches Problem eingefallen: Wenn ich die Konvertierungsfunktion nutze, wird "Zugegriffen am" auf das heutige Datum gesetzt. Es kann ja aber sein, dass die Seite heute nicht mehr ereichbar ist bzw. auf die Hauptseite weiterleitet (was der Bot für defekte Links nicht erkennen kann). Dann wäre die Datumsangabe falsch. -- Live Long and ProsperMotte001 • Diskussion • 18:07, 6. Apr. 2016 (CEST)Beantworten
Das Zugriffsdatum wird bei einer Quelle angeben, damit man weiß wann die Quelle das zu Belegende belegt hat; wenn dann später die Information aus der Quelle gelöscht wird, kann das Zugriffsdatum hilfreich sein. Das Zugriffsdatum sollte der Bot also auf das Datum setzen an dem der Mensch den Beleg eingefügt hat (da das in den allermeisten Fällen das selbe Datum sein wird, an dem der Mensch in der Quelle gelesen hat), oder leer lassen falls das möglich ist --Distelfinck (Diskussion) 02:19, 7. Apr. 2016 (CEST)Beantworten
@Boshomi: @Motte001: Ich weiß jetzt nicht welcher Link konkret gemeint ist. Wir könnten sich solchen Fällen aber den 301er abfangen und ebenfalls als toten Link kennzeichnen. Bei den großen Nachrichtenportalen (mit denen ich zunächst beginnen werde) besteht dieses Problem aber i.d.R. nicht, da alles über Jahre hinweg abrufbar bleibt. Meine Überlegung ist allerdings: gibt es für tote Links nicht schon längst einen Bot der das kennzeichnet? --FNDE (Diskussion) 23:19, 6. Apr. 2016 (CEST)Beantworten
Doppelkennzeichung von toten Links bringt wenig. Wenn man aber eine Botmeldung sieht, und selbst keine Lösung findet, dann ist eine Markierung mit der Vorlage schon sinnvoll. In diesem fall kann dann der Link von der Diskussionsseite entfernt werden.
301er sind nicht zwingend tote Links, die gehen oft auch zu zielführendende neu aufgesetzten Seiten. Wenn man so etwas sieht und viele Seiten davon betroffen sind, kann man das auf WD:WLW melden, oder gleich auf WP:WLWBot einstellen. Für Hilfe bei den ersten Schritten stünde ich gerne zur Verfügung. Frohes Schaffen — Boshomi⌨23:28, 6. Apr. 2016 (CEST)Beantworten
@FNDE: Du unterstellst, dass die URL, die in unserem Artikel steht, korrekt übertragen wurde und die fraglichen Websites dann immer ein sachgerechtes Antwortpaket liefern würden.
Es ist aber durchaus häufig, dass beim C&P aus dem Browser ein Buchstabe oder ganzer Parameter nicht mitkopiert wurde, oder in den späteren Jahren mal jemand durch Edit-Unfall plus/minus einen Buchstaben vergeigt hatte.
Und dann kommt eine normale Textseite; „diese Nachricht haben wir nicht, aber vielleicht interessieren Sie sich für eine von diesen Seiten?“
Das muss also abgefangen werden; einfach eine bewusst falsche URL anfragen und gucken, wie die Reaktion aussieht. Dann skippen oder mit Vorlage markieren; natürlich nicht diesen Linktext und auch kein Abrufdatum. Der Statuscode ist nicht zuverlässig und bei Zotero auch nicht mitgeliefert.
@PerfektesChaos: @Boshomi: ist wohl doch etwas komplexer wie ich dachte :) Ich werde die betroffenen Links am besten skippen und in eine Wartungsliste aufnehmen, dann kann man gezielt schauen wie man die Problemfälle am besten angehen kann. Viele Grüße --FNDE (Diskussion) 11:57, 8. Apr. 2016 (CEST)Beantworten
Debug@PerfektesChaos: @Boshomi: @Motte001: ich habe den Bot mal ein paar Trockenübungen machen lassen. 1000 Durchläufe ohne Probleme, außer ein paar 404er. Die kamen vor allem durch die angesprochenen Formatierungen zustande, beispielsweise http://www.spiegel.de/link.html. – der Punkt am Ende macht hier beispielsweise Probleme, ich halte es aber für schwierig, alle Eventualitäten mit einzubeziehen. Die defekten Links werden deshalb erstmal in einer Datenbank mit Lemma gesammelt, sodass man später nochmal drüber schauen kann. Eine Kennzeichnung werde ich nun doch nicht einbauen, schließlich kann auch mal die Seite selbst down sein. Die Gegenüberstellung könnt ihr hier sehen: //tools.wmflabs.org/request/FNBot/db_task.php, man kann da schon ganz gut sehen wie das System arbeitet. diff_from zeigt den ursprünglichen Link, diff_to die zu ersetzende Änderung. Das Datum wird (wenn vorhanden) direkt auf der Seite per Metatag geholt, da Citoid diese Information leider nicht liefert. Viele Grüße --FNDE (Diskussion) 21:29, 8. Apr. 2016 (CEST)Beantworten
Das bedarf dennoch einer guten Kontrolle, nicht jeder 200er liefert tatsächlich die gewünschte Seite. Daher ist es empfehlenswert das Verfahren Domain für Domain erneut zu überprüfen. Frohes Schaffen — Boshomi⌨23:03, 8. Apr. 2016 (CEST)Beantworten
Ich finde den Vorschlag mit der Spiegel-Vorlage gut, allerdings gibt es auf den betreffenden Seiten leider keine Metadaten für das Datum, was für die Vorlage jedoch erforderlich wäre. Dafür müsste ich also eigene Regeln zum parsen der Seite festlegen, weiß nicht ob das so wartungsfreundlich ist?
Ich verstehe nicht ganz was du mit ohne Vorlage / direkt formatiert meinst. So? <ref>[http://www.welt.de/print/xyz Linktitel] abgerufen am ...</ref>
Das Verzeichnis welt_print wegen 301er auf print umstellen habe ich verstanden.
Gleiche Frage zum Hinweis mit der Zeit
Du willst darauf hinaus den Punkt am Ende der URL einfach zu belassen, weil er ohnehin nicht verwertet wird?
Links im Format <ref>[http://example.com]</ref> werden bereits mit einbezogen, falls du das meinst.
Bei den dreien handelt es sich um die Wiedergabe der gedruckten Ausgaben, für die wir die IQ-Vorlage nicht verwenden.
Zu allen dreien gibt es aber auch eine Online-Redaktion. Die mit IQ-Vorlage und erfolgreichem Abrufdatum.
Bei den Printmedien brauchst du kein Abrufdatum. Die haben wir jeweils im fünfstelligen Bereich verlinkt, und wenn deren Archiv kaputtgeht oder kostenpflichtig wird, hilft uns das Abrufdatum auch nicht weiter – letzte Woche ging es noch. Das maßgebliche Exemplar ist aber das aus Papier, das in der Bücherei einsehbar ist; das ist anders als mit echten Internetquellen.
Zu 2.: Wie im beliebigen Suchtreffer Tauentzienpalast. Reicht. Guck mal im Zotero nach "date".
Zu 3.: Wie im beliebigen Suchtreffer Restquote. "authors", "title", "year", "issue". Reicht. Lit-Vorlage wäre denkbar, kann dir aber massiven Ärger mit Vorlagengegnern einbringen.
Zu 4.: Weil http://example.org/index.html. im ungeklammerten Link den Punkt nicht mitverlinkt, müsstest du ihn ersatzlos wegschmeißen. War nur so als Dekoration gemeint gewesen. Hoffentlich funktioniert die URL dann auch ohne.
Zu 5.: Stand noch nicht im Antrag drin; ist aber unbedenklich.
zu 2 + 3) ebenfalls klar, nur habe ich noch nicht gesehen, dass Citoid issue überhaupt zurück gibt. Würde eigentlich auch gerne die Literatur-Vorlage verwenden, das lässt sich später auch deutlich besser verarbeiten von anderen Bots. Was haben die Gegner denn gegen die Vorlage einzuwenden? Vorlage:Smiley/Wartung/:)
zu 4) genau das ist der Punkt. Ich werde die URLs erstmal skippen und das ganze Problem im einzelnen begutachten, um eine individuelle Lösung zu finden.
Gegner der Lit-Vorlage: Lies selber; 2006, 2008, 2011 – lass es einfach; bringt dir in diesen beiden Fällen nur Ärger. Direktformatierung und Ruhe ist.
Ob es year gibt, weiß ich jetzt nicht so genau, aber einen ganzen Schwung an Datumsfeldern in der Zotero-Antwort.
Hab ich da was mißverstanden? Ich dachte diese Zotero-Daten sind in der Abfrage von Citoid integriert? Tut mir Leid, bin da noch nicht ganz auf der Höhe mit den Datenquellen.
@FNDE, PerfektesChaos: finde ich nicht gut, denn wozu haben wir denn die Vorlage. Wir sollten weiterhin die Vorlagen Literatur und Internetquelle nutzen, ich finde sie übersichtlich, man findet fix die Parameter und kann dann auch mal fehlerhafte Einträge korrigieren. Des Weiteren ist eine Nachbearbeitung durch Bots bei Änderung der Vorlage simpel ausführbar. Außerdem sollte man die Referenzen komplettieren und nicht wieder bloß die Hälfte machen, und autor ist auch nicht immer hrsg. Das im Tauentzienpalast und in Restquote reicht eben nicht. Hier fehlen z.B. ISSN und bei einem auch das Datum, das Format Nr/Jahr mit Schrägstrich entspricht nicht unseren Vorgaben oder Vorlagen, des Weiteren wird die Vorlage Literatur nicht verwendet. Hier gibt es viel Bedarf zum Nachdenken noch – Doc Taxon • Diskussion • Wiki-MUC • Wikiliebe?! • 15:23, 12. Apr. 2016 (CEST)Beantworten
Wenn bei einer Bot-Bearbeitung serienmäßig eine Vorlage eingesetzt wird, die einige Autoren mit Händen und Füßen ablehnen, dann gibt das nur vermeidbaren Riesen-Zoff und hilft niemandem.
Bei den großen Print-Publikationen, um die es hier geht, verwenden wir grundsätzlich keine ISSN, da die Publikation verlinkt ist und alle weiteren Angaben aus dem eigenen Artikel hervorgehen.
Bei einer Wochenzeitung ist die Angabe der Heftnummer völlig ausreichend, da die Archive dementsprechend aufgebaut sind. Wenn du hingegen bei Spiegel oder Zeit nur das Tagesdatum kennst, stehst du erstmal auf dem Schlauch und findest das Heft nicht, weil in den Archiven keines angegeben ist. Du kannst dann erstmal anhand des Monats mal vier, plus ein bisserl, und dann einige Wochen davor und danach durchprobieren, bis du irgendwann die richtige Nummer gefunden hast.
Wir geben nur die Informationen an, die hinreichend sind, um eine Publikation eindeutig und zweifelsfrei zu beschreiben; alles andere ist redundant, bläht nur und gibt dann wieder Zeck mit den Autoren der Artikel bis zu Revert und VM. Alles schon gehabt. Man könnte ja mal was draus lernen. Wir geben auch beim Spiegel oder der Zeit nicht an, dass die mal von Rudolf Augstein oder Gerd Bucerius begründet und herausgegeben wurden, dass Stefan Aust grad Chefredakteur sei oder zum Erscheinungszeitpunkt Helmut Schmidt zu den Herausgebern gehört hatte.
Die weitaus überwiegende Anzahl der genannten Print-Publikationen ist wie beschrieben im ANR zitiert; Bot-Einsätze könnten hier allenfalls mal wegen veränderter URL erforderlich werden und die findet sich in jedem Fall. Alles andere ist Handarbeit und bedarf der Sensibilität.
Nee, alle fünf Punkte sind nur teilweise korrekt. Ich arbeite ja schon länger an so einem Bot, der solche Schluderei korrigiert, und komme gut voran. Boshomi und Luke081515 wissen davon auch schon, und wer hier auf dieser Seite aufmerksam mitliest, weiß es auch. Alsdenn, Wikipedia wird verbessert. – Doc Taxon • Diskussion • Wiki-MUC • Wikiliebe?! • 16:03, 12. Apr. 2016 (CEST)Beantworten
@FNDE: Es geht doch darum, Einzelnachweise zu konvertieren. Fehlende Informationen werden gesammelt, diese in eine Vorlage (Literatur oder Internetquelle oder Webarchiv) gesetzt und der Artikel damit dann geändert. Das alles unter Beachtung der oben fett genannten Regeln und Dokumentationshinweise zu den eben genannten Vorlagen. Fertig! Ist natürlich ein Haufen Arbeit, kriegt man aber hin. – Doc Taxon • Diskussion • Wiki-MUC • Wikiliebe?! • 16:41, 12. Apr. 2016 (CEST)Beantworten
@Doc Taxon: Ich hab da kein Problem mit alles in eine Vorlage zu integrieren, die Links werden ja immer noch deutlich verbessert. PerfektesChaos hatte nur die o.g. Bedenken geäußert. Wenns von euch (vllt. auch administrative?) Rückendeckung gibt kann der Bot gerne mit den Vorlagen Internetqelle/Spiegel/Literatur arbeiten. Viele Grüße! --FNDE (Diskussion) 18:55, 12. Apr. 2016 (CEST)Beantworten
Hallo zusammen. Der Bot (Benutzer:FNBot) hat inzwischen seine Berechtigung erhalten, die Diskussion könnt ihr auf der Antragsseite nachvollziehen. Die Arbeit des Bots wurde unter der folgenden Voraussetzung erteilt: wir dürfen die Links nur mit der Vorlage Internetquelle formatieren, wenn das Zugriffsdatum des Autors bekannt ist. Das ist für die aktuell betroffenen Links leider nicht ohne erheblichen Aufwand möglich, bzw. aufgrund vieler Einzelfälle faktisch unmöglich. Es wurde sich darauf geeinigt, dass der Bot deshalb eine Formatierung als Link mit Beschreibung (z.B. <ref>[http://www.spiegel.de/xyz Headline xyz] in [[Spiegel Online]], 24.05.2016.</ref>) vornimmt. Sofern das Erstelldatum des Artikels vorliegt, wird es wie gezeigt hinten angefügt. Das ist natürlich immer noch eine große Verbesserung im Vergleich zum nackten Link, wenn auch nicht so schön wie eine Vorlage. Ich schlage vor bei diesen Link noch einen unsichtbaren Kommentar einzufügen, beispielsweise <!-- fnbot_1 --><ref> ... </ref><!-- fnbot_end -->. So können wir in Zukunft noch Verbesserungen vornehmen, falls sich da neue Möglichkeiten auftun. Für alle neuen Links gilt dies selbstverständlich nicht: ich würde den Bot ein paar Mal am Tag die Recent Changes untersuchen lassen und neue Links direkt korrigieren. Hier können wir auch unproblematisch die Vorlage Internetquelle verwenden, da das Datum der Einfügung des Links einwandfrei bekannt ist. Habt ihr zu der ganzen Sache noch Fragen oder Anregungen? Ansonsten würde ich den Bot in den nächsten Tagen aktivieren. Viele Grüße und danke für die bisherige Hilfe! --FNDE (Diskussion) 15:49, 24. Mai 2016 (CEST)FYI:Benutzer:Distelfinck, Benutzer:PerfektesChaos, Benutzer:Doc Taxon, Benutzer:BoshomiBeantworten
Du könntest auch die Vorlage {{Cite web}} oder {{Cite news}} verwenden, da ist das accessdate empfohlen, aber nicht verpflichtend. Bei defakto unveränderlichen Artikeln wie das beim Spiegel der Fall ist, ist das Zugriffsdatum sowieso für die Fisch. Das Zugriffsdatum ist überall dort dringend notwendig, wo unter der selben URL über die Zeit hinweg andere Inhalte geliefert werden. Bei Cite News wird das Zugriffsdatum vernünftigerweise ausgeblendet wenn es gleich dem Erscheinungsdatum ist. Auf Kommentare eines Bots kann ich auch gerne verzichten. Verwende statt dessen aussagekräftige Editkommentare Frohes Schaffen — Boshomi⌨16:15, 24. Mai 2016 (CEST)Beantworten
Alles klar, ohne Kommentare. Die Cite-Vorlage ist ja ganz gut.. warum sind wir da nicht gleich drauf gekommen? :) So hätte es ja trotzdem eine Struktur die sich im Nachhinein ggf. ändern ließe. Viele Grüße! --FNDE (Diskussion) 16:21, 24. Mai 2016 (CEST)Beantworten
Ich halte das für einen völligen Trugschluss, dass das Abrufdatum weggelassen werden kann, nur weil die Cite-Vorlagen keine Fehlermeldung auswerfen, wenn es nicht eingetragen wurde. In Wikipedia:Zitierregeln#Internetquellen_und_Weblinks steht sehr klar, dass Einzelnachweise (und um die dürfte es in der überwiegenden Zahl der Fälle gehen) mit einem Abrufdatum versehen werden sollen. Wenn der Bot das nicht kann, dann sollte er die Finger von diesem Eintrag weglassen. Es spricht mM allerdings nichts dagegen, die Recent Changes zu überwachen, nachzuformatieren und das aktuelle Tagesdatum als Abrufdatum zu verwenden.--Mabschaaf17:21, 24. Mai 2016 (CEST)Beantworten
Der Bot fügt keine Einzelnachweise ein, er versieht lediglich schon bestehende Einzelnachweise mit einem Seitentitel und macht sie lesbarer. Von daher muss der Bot kein Abrufdatum angeben --Distelfinck (Diskussion) 17:36, 24. Mai 2016 (CEST)Beantworten
Okay, du willst also darauf hinaus, dass es schön wäre, ein Zugriffsdatum noch zu ergänzen. Da aber aktuell kein Computercode dafür vorliegt, der das machen kann, kann der Bot das auch nicht machen... Also besser der Bot macht was er kann, statt garnix, oder --Distelfinck (Diskussion) 17:45, 24. Mai 2016 (CEST)Beantworten
(nach BK) Mabschaaf, wir machen aus einem Link ohne Titel, Datum und alles einen Link (bzw. eine Vorlage), die zumindest den Titel, das Artikeldatum und den Herausgeber enthält. Für neue Links ist das Zugriffdatum natürlich zu berücksichtigen, aber bei den alten haben wir entweder die Wahl zwischen so stehen lassen und damit die Usability konstant schlecht zu halten, oder das bestmöglichste herauszuholen. Doc Taxon, ich zitiere mal: Des Weiteren soll bei Belegen nach der letzten allgemeinen Angabe und vor der Kommentarklammer das Abrufdatum angegeben werden. Natürlich soll es so sein, ist aber bei zehntausenden Links nicht so geschehen. Wir versuchen ja nur den Link zu verbessern, auch wenn der status quo (fehlendes Zugriffdatum) erhalten bleibt. Dieser Umstand wird sich aber ohnehin nicht ändern, mit oder ohne Botauftrag. Viele Grüße --FNDE (Diskussion) 17:50, 24. Mai 2016 (CEST)Beantworten
Dieser Punkt wurde ja schon auf der Antragsseite besprochen. Es wäre vollkommen unverhältnismäßig diesen Aufwand zu betreiben und trotzdem noch zahlreiche Fehler durch die Ausnahmen einzubauen. Ein Einzelnachweis ohne Zugriffsdatum (status quo) ist weniger falsch als ein Einzelnachweis mit einem falschen Zugriffsdatum, das steht schon mal fest. Und dieses falsche Zugriffsdatum können wir einfach nicht ausschließen. MBq hat ja selbst den Vorschlag eingebracht, die Links ohne Zugriffsdatum zu formatieren. Dort gab es abschließend auch keine Gegenrede, deshalb kann ich die Diskussion gerade nicht nachvollziehen. Viele Grüße --FNDE (Diskussion) 18:18, 24. Mai 2016 (CEST)Beantworten
es wurde ja hier gerade erwähnt, dass die SPON-Artikel praktisch nie geändert werden. Also kommt das Zugriffsdatum einer Neuprüfung gleich, die ein älteres Datum obsolet macht. Somit kann das aktuelle Zugriffsdatum eingetragen werden. Ich dachte, ich sagte das oben schon. – Doc Taxon • Diskussion • Wiki-MUC • Wikiliebe?! • 18:22, 24. Mai 2016 (CEST)Beantworten
Also das Zugriffsdatum anzugeben, ist ja kein Selbstzweck. Wenn sich eine Seite nie ändert, dann muss man auch kein Zugriffsdatum angeben, weil es in dem Fall schlicht niemand für was gebrauchen kann --Distelfinck (Diskussion) 18:37, 24. Mai 2016 (CEST)Beantworten
Ja das ist auch so, aber genau das war doch schon mein Argument in der Diskussion auf der Bot-Antragsseite. Alle bislang ausgewählten Seiten arbeiten nach dem Prinzip wie bei SPON: Inhalte ändern sich nicht, und wenn es so ist, wird explizit darauf hingewiesen. Es würde demnach also nichts dagegen sprechen für diese Seiten das aktuelle Datum als Zugriff zu verwenden. Ich erinnere mich aber, dass Distelfinck von der Idee nicht so angetan war. Alles nicht so leicht hier Vorlage:Smiley/Wartung/:) Viele Grüße --FNDE (Diskussion) 18:31, 24. Mai 2016 (CEST)Beantworten
Ich glaube nicht, dass Doc Taxon das gemeint hat. Bei einem Teil der Belege ließe sich schon ein Zugriffsdatum feststellen. Und zwar bei Belegen, bei denen sich der belegte Text nicht geändert hat. Also bei einem Teil der Links ließe sich die Zugriffsdatums-Ergänzung schon umsetzen. Aber das ist nicht deine Aufgabe. Deshalb ja auch der Vorschlag, den Bot zu open-sourcen, dann kann jemand, der den Bot um Extra-Funktionen erweitern will, das machen. Oder jemand stellt eine API für dich bereit, die das Zugriffsdatum zurückgibt --Distelfinck (Diskussion) 18:33, 24. Mai 2016 (CEST)Beantworten
Ja, FNDE, dieses Argument auf der Bot-Antragsseite ist aber nun vom Tisch, wenn der SPON-Artikel praktisch nicht verändert wird. Nochmal: die Änderung des Link-Eintragas würde somit einer Neuprüfung entsprechen, die alte Datumangaben obsolet macht. Insofern ist das Zugriffsdatum des aktuellen Tages zu verwenden. Da zusätzlich Autor, Titel und Datum sehr unproblematisch auslesbar sind, kann der Eintrag in die dafür vorgesehene Vorlage Internetquelle eingefügt werden, und wir haben erreicht, was wir wollten. Danke, – Doc Taxon • Diskussion • Wiki-MUC • Wikiliebe?! • 18:41, 24. Mai 2016 (CEST)Beantworten
Es findet überhaupt keine Neuprüfung durch den Bot statt! "Insofern ist das Zugriffsdatum des aktuellen Tages zu verwenden." - das wäre kein Informationsgewinn, das in den Einzelnachweis einzufügen – ein Datum auswürfeln kann der Leser auch selber; und das Datum würde auch manchmal falsch sein, wie schon in der Bot-Antrags-Diskussion erwähnt, im Durchschnitt würde also eine Falschinformation in den Einzelnachweis eingefügt. --Distelfinck (Diskussion) 18:52, 24. Mai 2016 (CEST)Beantworten
Ich bin mir gerade nicht sicher, ob ich zu einfach, oder zu kompliziert denke Vorlage:Smiley/Wartung/:) Machen wir also jetzt doch das, was vor der ganzen Zugriffs-Datum-Diskussion schon gesetzt war? Vorlage Internetquelle + Zugriffsdatum für alle Links, auch die bestehenden? Ich glaube, ich habe gerade meinen roten Faden verloren :) Grüße --FNDE (Diskussion) 19:49, 24. Mai 2016 (CEST)Beantworten
Ich sagte ja, dass eine Neuprüfung das alte Datum obsolet machen würde, wir haben es sowieso nicht, deshalb ist das aktuelle zu verwenden. @FNDE: ja, so können wir es in diesem Fall machen: Vorlage Internetquelle + Zugriffsdatum für alle Links, auch die bestehenden – Doc Taxon • Diskussion • Wiki-MUC • Wikiliebe?! • 19:56, 24. Mai 2016 (CEST)Beantworten
Nee, nochmal: Wer soll diese Neuprüfung durchführen, sprich für jeden einzelnen vom Bot angefassten Link zu überprüfen, ob die Quelle korrekt wiedergegeben ist? Das wäre eine Riesenarbeit, jeden einzelnen Link abzusegnen --Distelfinck (Diskussion) 20:37, 24. Mai 2016 (CEST)Beantworten
Niemand hat die Absicht.. eine Neuprüfung durchzuführen :) Also, wenn ich selbst alles richtig verstanden habe meinte Doc Taxon, dass ein inhaltlicher Vergleich mit dem letzten Zugriffsdatum keinen Sinn macht, da es uns nicht vorliegt. Mit Prüfung war die automatische Prüfung durch einen Bot gemeint. Demnach wird also keine Prüfung stattfinden, weder von einem Bot, noch von uns. --FNDE (Diskussion) 20:58, 24. Mai 2016 (CEST)Beantworten
(BK) Distelfinck, wenn (und ich betone: wenn) feststeht, dass sich der Inhalt einer bestimmten Webseite nie ändert, dann ist die Argumentationskette folgende:
Es ist egal, wann der menschliche Bearbeiter den Link eingefügt hat
Der Bot prüft die Erreichbarkeit und holt sich die Metadaten (Autor, Titel, Veröffentlichungsdatum)
Der Bot formatiert mit diesen Angaben den (nackten) Link um, indem er die Vorlage:Internetquelle mit Parameterwerten befüllt
Als Zugriffsdatum (Parameter zugriff=) kann nun auch das Bot-Zugriffsdatum genutzt werden, weil der Link zu diesem Zeitpunkt noch erreichbar war (sonst hätte der Bot auch keine Angaben zum Autor etc. gefunden). Der Inhalt ist ja - wie eingangs beschrieben - unverändert.
Dieses Vorgehen ist natürlich nur bei wenigen(?) Internetseiten akzeptabel, eben nur dann, wenn als zuverlässig annehmbar ist, dass sich Inhalte nie ändern.
In Analogie dazu ist das beim Zugriffsdatum bei Online-Resourcen von Druckwerken (also Vorlage:Literatur mit Parameter Abruf=) auch in der dortigen Doku so festgehalten: Es zählt das Datum der letzten Erreichbarkeit.--Mabschaaf21:05, 24. Mai 2016 (CEST)Beantworten
(BK) Add: Da wir hier v.a. über SPON diskutieren: Ich bin mir nicht sicher, ob ein Vorgehen wie eben beschrieben dort gerechtfertigt ist. Siehe diesen Artikel, vor allem den letzten Satz. Hat diese Änderung zu einer neuen ID geführt oder nicht? Wie also verhält sich die SPON-Redaktion genau in solchen Fällen inhaltlicher Änderungen?--Mabschaaf21:17, 24. Mai 2016 (CEST)Beantworten
@Mabschaaf: Die so gekennzeichneten Internetseiten lassen sich problemlos vom Bot auf eine Blacklist setzen, die dann händische Nacharbeit erfordert. Ich kann mir nicht vorstellen, dass dabei allzuviel zusammen kommt. Damit hätten wir auch dieses Problem aus der Welt. – Doc Taxon • Diskussion • Wiki-MUC • Wikiliebe?! • 22:09, 24. Mai 2016 (CEST)Beantworten
Welche "so" gekennzeichneten? Wie sollte das denn automatisch erkannt werden? Hier kommt keine Blacklist in Frage, dort wären erst mal alle Seiten drauf. Hier müsste mit einer White-List gearbeitet werden, und welche Seiten dort drauf dürfen, ist zu diskutieren. Ganz ehrlich: Ich sehe da kaum eine Chance, die Altbestände per Bot aufzuarbeiten. Wie gesagt, Recent Changes ist ein anderes Thema. Dort gerne.--Mabschaaf22:12, 24. Mai 2016 (CEST)Beantworten
@Doc Taxon: Mir scheint, Du hast die Problematik noch nicht verstanden. In diesem einen Fall könntest Du tatsächlich nach "Anmerkung der Redaktion" im Text suchen und den Artikel ausschließen. Wer sagt Dir aber, dass unter jedem nachträglich geänderten Artikel "Anmerkung der Redaktion" steht? Vielleicht steht da auch "Corrigendum", "Nachtrag", "Überarbeitet" oder sonst was. Vielleicht aber auch explizit gar nichts. Und im Text wurden die ehemals 345 Opfer zu 435 Opfern korrigiert. Stillschweigend. Das kann nur ein Mensch mit Verstand durch Lesen des Textes und Vergleich mit dem in WP belegten Fakt prüfen.
Was der Bot jetzt (in diesem Beispielfall) machen würde, ist die (nach altem Artikelstand in Wp genannten und belegten) 345 Opfer mit einem Einzelnachweis mit aktuellem Tagesdatum versehen und damit den Beleg "fälschen", denn zum heutigen Tag stehen dort die 435 Opfer. Keine gute Idee. --Mabschaaf12:43, 25. Mai 2016 (CEST)Beantworten
Formatierung
Mabschaaf, das stimmt. Auch hier gäbe es zu viele Einzelfälle. Denkbar wäre eventuell den last-modified-Metatag zu uberprüfen, aber wie schon beim Versionsvergleich haben wir ja kein Referenzdatum, an dem der Link auf Wikipedia eingefügt wurde. Naja, und das Metatag selbst wird auch nicht überall bereitgestellt. Zu deiner Frage oben: die ID bei SPON ändert sich nicht, die Redakteure schreiben bei Änderungen nur ein Update direkt unter den Artikel. Gleiches gilt für die anderen Nachrichtenseiten, auch wenn ich es im Einzelnen nicht überprüft habe. Wenn wir einen 404er von der Seite bekommen wird der Link ohnehin in eine Wartungsliste eingetragen. --FNDE (Diskussion) 13:15, 25. Mai 2016 (CEST)Beantworten
Fang doch mal mit den Recent Changes an, da gibt es die genannten Probleme nicht. Über die Altfälle müsste man mM einen breiteren Konsens suchen für die Frage:
a) Ist es besser, die Daten, die man kriegen kann auszulesen und in eine Vorlage zu schreiben - und dafür in Kauf zu nehmen, dass eine Wartungskat wegen fehlendem Abrufdatum vollläuft oder
b) sollte man auf das Formatieren mittels Vorlage verzichten und die Informationen nur als Plain Text eintragen oder
Also, wenn dem so ist, und die Redakteure eine Änderung des Artikeltextes kennzeichnen, wie FNDE es eins drüber nochmal versicherte, dann haben wir's doch. Ob die jetzt immer "Anmerkung der Redaktion" schreiben, lässt sich sicher rauskriegen. – Doc Taxon • Diskussion • Wiki-MUC • Wikiliebe?! • 15:22, 25. Mai 2016 (CEST)Beantworten
@Doc Taxon, sag mal, liest Du eigentlich, was wir schreiben? FNDE hat sehr klar gemacht, dass sich die ID nicht ändert, das Metatag last-modified nicht immer verfügbar ist und die Redakteure bestenfalls irgendwas unter den Text schreiben. Klingt das nach sicher automatisierbar? Nein. Und das war jetzt nur für SPON. Wie es die Welt, die FAZ, die Zeit und alle anderen machen, haben wir noch nicht mal Ansatzweise diskutiert. Du solltest die Worte schon mal gehört haben, dass für jeden Boteinsatz breite Zustimmung da sein muss. Die sehe ich hier nicht.--Mabschaaf17:22, 25. Mai 2016 (CEST)Beantworten
funktioniert ja, Siehe die Doku. Man kann sich sogar kleine Funktionen für die Ersetzung schreiben (Siehe die etwa das letzte Beispiel in TMgs-Doku). Links wie "Datei:Facial Chronicle - b.16, p. 462 - Great standing on the Ugra.jpg" werden diesen Skripts auch verlässlich ignoriert. ARreplace setzt auf dem Autoformatter auf, und setzt nur die benutzerdefinierte Ersetzungen durch. Das ist für halbautomatischen Einsatz oft besser geeignet, die Diffs sind dadurch viel einfacher und es kommen weniger False-Postive vor, auf die man bei der Nutzung des vollen Funktionsumfang des Autoformatters natürlich achten muss. Frohes Schaffen — Boshomi⌨01:02, 20. Jul. 2016 (CEST)Beantworten
Mit dem Auffinden alleine ist es in diesem Fall nicht getan. Die Frage die sich mir stellen, ist ob schon jemand einen Bot hat, der mit Hilfe der URL und Wikipedia:Technik/Labs/Citoid sowas zumindest für die Teilmenge der unterstützten URLs zu sinnvoll beschriebenen Linktexten umformen kann?
Keine Interwiki-Bots mehr plus Diese reine Quelltextverschönerung nur zusammen mit anderen inhaltlichen Bearbeitungen durchführen! ist eine unheilige Allianz. :-( --Leyo21:03, 26. Sep. 2016 (CEST)Beantworten
Meine Intention war, dass wenn sowieso ein Bot das Komma/den Punkt nach den Link verschiebt, könnte er auch gleich schauen, Linkziel = Linktext und dieses mitkorrigieren. Und wenn, warum unheilige Allianz? mfg --Crazy188007:07, 27. Sep. 2016 (CEST)Beantworten
Ich meinte damit, dass die Kombination der beiden genannten Dinge dazu führt, dass solche Wartungslisten nicht abgearbeitet werden und daher immer länger werden. --Leyo11:04, 27. Sep. 2016 (CEST)Beantworten
Diese "unheilvolle Allianz" wäre durchaus mal eine eigene Diskussion wert. Aktuell gibt es zwei Möglichkeiten, solche Formfixes auszuführen:
gar nicht, weil
keine gleichzeitige inhaltliche Änderung anliegt bzw. von einem Bot (fast) nie erfolgen kann
die Programmierung eines Bots für eine Vielzahl von Formfixes nicht nur sehr komplex und fehleranfällig wäre, zudem dann noch immer Voraussetzung wäre, dass innerhalb eines Artikels eine Vielzahl von Formfixes nötig ist
eine inhaltliche Änderung wird mit gleichzeitig stattfindenen Formfixes zugedeckt, eine wirklich aussagekräftige ZQ ist kaum noch möglich, der Difflink ist undurchschaubar (Beispiel: Spezial:Diff/158201722 - finde die inhaltliche Änderung...) Das ist klassischerweise der Fall, wenn mit WSTM gearbeitet wird.
IMHO sollte der VisualEditor gewisse (unumstrittene) Quelltextverbesserungen wie Linktext = Linkziel miterledigen.
Moin, tatsächlich kenne ich die Probleme schon länger. Mit meinem Anfang in der Syntaxkorrektur waren es in diesem Falle mal unter 8000, mittlerweile sind es etwa 25000, also man merkt es über die Jahre schon. Was wäre hier denn nun ein wünschenswerter Weg. Manuell sollen sie ja nicht abgearbeitet werden, weil eigentliche reine Syntaxpolitur? Nur das Komma oder den Punkt verschieben ohne sich gleichzeitig die Links anzuschauen, finde ich auch suboptimal, da für mich diese Punkte zusammengehören. mfg --Crazy188018:45, 27. Sep. 2016 (CEST)Beantworten
Es gibt auf dieser Seite 82 Abschnitte mit Wünschen zu Botläufen. Würde man nur die Hälfte davon umsetzen, käme genug zusammen, um jeweils ein oder zwei zusätzliche Syntaxkorrekturen vorzunehmen, ohne jeweils die Bots zu überfordern. 92.74.18.22019:37, 27. Sep. 2016 (CEST)Beantworten
@Mfb: Weisst du, ob es möglich ist, die Schnittmenge aus verlinkten Kommata und Link gleich Linktext (abgesehen vom Komma) zu finden? Gibt es vielleicht tatsächlich Lemmata mit einem Komma am Ende? --Leyo21:00, 27. Sep. 2016 (CEST)Beantworten
Backreferences kann die Suche leider nicht, müsste man per Bot in der Trefferliste suchen oder einen Dump untersuchen. Es sind sehr wenige Artikel, die auf die Komma-Lemmata verweisen, die ließen sich vom Botlauf ausnehmen. [[Paris|Paris,]] sollte natürlich nicht zu [[Paris|Paris]] werden. --mfb (Diskussion) 00:37, 28. Sep. 2016 (CEST)Beantworten
Wenn schon würde es wohl zu [[Paris|Paris]], (Komma nach aussen verschoben). ;-)
@Leyo, Mfb: Ich werde die Sache mit Kommata u. Semikolon + Überprüfung auf gleiches Linkziel in einen anderen Auftrag integrieren. Ich denke aber, dass von dieser Liste hier wirklich nur ein sehr kleiner Teil betroffen sein wird. Wäre also zu klären, ob man diesen Job hier einfach mal einzeln durchgeht und mit ein paar Aufgaben verknüpft. Unter Wikipedia:Bots/Anfragen#Bild: habe ich ein paar Aufgaben aufgelistet die miterledigt werden könnten. --FNDE12:15, 11. Jun. 2017 (CEST)Beantworten
[[Komma|,]] ist auch noch ein false positive (8 mal). [[James Leslie Mitchell|James Leslie Mitchell,]] - wer macht sowas? Wir haben auch einige sehr seltsame Fälle - sieht nach einem VisualEditor-Unfall aus. Und wie entstand das? Alle Kommata die als einzelne Links in Artikeln waren sind beseitigt, mit Ausnahme der 8 Links zu Komma. --mfb (Diskussion) 17:36, 11. Jun. 2017 (CEST)Beantworten
Dieser Botauftrag wird gerade von FNBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).
gesetze-im-internet.de
Letzter Kommentar: vor 6 Jahren6 Kommentare3 Personen sind an der Diskussion beteiligt
Siehe Tool Giftbotweblinksuche deaktiviert.. Da ist schon einiges tot, siehe die Botmeldungen im Link. Die Frage ist, wie man das am einfachsten fixt, bzw. wo gibt es eine bessere Quelle, die auch veraltete Gesetzestexte anzeigen kann. Frohes Schaffen — Boshomi⌨20:18, 14. Nov. 2016 (CET)Beantworten
Wollen wir es hoffen. Allerdings gehe ich jederzeit eine Wette ein, dass mindestens ein Drittel aller deutschen Bundestagsabgeordneten nicht in der Lage sind selbstständig diese toten Gesetzestexte zu finden. Frohes Schaffen — Boshomi⌨21:25, 14. Nov. 2016 (CET)Beantworten
Klick doch einfach auf die Suchlinks oben. Bist etwa du Deutscher und hast zumindest gewisse Kenntnisse von deutschen Gesetzestexten? --Leyo23:37, 25. Aug. 2017 (CEST)Beantworten
Regierungswechsel im Weißen Haus
Letzter Kommentar: vor 6 Jahren8 Kommentare3 Personen sind an der Diskussion beteiligt
Am 21. Januar findet bekanntlich die Amtsübergabe von Obama an seinen Nachfolger statt. Zu dem Zeitpunkt werden alle bis dahin geltenden Weblinks zu whitehouse.gov ungültig und ins Archiv verschoben. Das wird wohl so etwas sein wie http://obama-whitehouse.archives.gov/ oder so ähnlich, jedenfalls war das vor acht Jahren
Wir brauchen also einen Botbetreiber, der, sobald die neue URL feststeht, zeitnah und rasch – bevor übereifrige Benutzer anfangen, vermeintlich tote Links manuell zu korrigieren oder ersatzlos aus Artikeln zu entfernen – dann die Änderungen umsetzt. Dies betrifft sowohl Einzelnachweise als auch Weblinks. Schnell muß es ja vor allem deswegen gehen, weil ja ab dem Regierungswechsel neue, gültige Weblinks mit http://whitehouse.gov/ in Artikel eingefügt werden.
Das ganze ist übrigens ein globales Problem, wenn der Botbetreiber einer globaler Bot ist, wäre es also nicht schädlich.
Sinnvoll wäre es, schon jetzt einmal einen Vorablauf durchzuführen, ob es unter der Domain HTTP-404-Fälle gibt und wenn ja, ob diese ggf. in die Zeit vor 2008 zurückreichen und durch die o.g. Änderung auf das George-W-Bush-Archiv korrigiert werden können. --Matthiasb – (CallMyCenter)14:20, 6. Dez. 2016 (CET)Beantworten
Das wohl kein Botbetreiber was gemacht hat und das nun eine Aufgabe für die Dead-Link-Fixer ist, die alle Vorkommen einzeln korrigieren müssen. Kann doch kein Schwein wissen, daß eine sinnvolle Bootanfrage nicht abgearbeitet wird. Ärgerlich, so eine Sache – und vermeidbar. --Matthiasb – (CallMyCenter)01:37, 23. Aug. 2017 (CEST)Beantworten
Schon klar. Jetzt haben wir leider im Bestand eine Mischung von gültigen Links zur Trump-Präsidentschaft und veralteten der Obama- und mglw. der Busch-Präsidentschaft. Hier sollte man vielleicht auf eine Linkvorlage umstellen, ich denke mal unrein, sowas wie Whitehouse|<Präsident>|<URL-Teil>, das ist eigentlich ein typischer Anwendungsfall für so etwas. --Matthiasb – (CallMyCenter)11:34, 23. Aug. 2017 (CEST)Beantworten
Die "the-press-office" und "blog"-Links leiten automatisch weiter. Alle Links mit "the_press_office" leiten falsch weiter und müssen korrigiert werden. Das sind die größten Gruppen. Der Rest muss wohl auf die 404-Seite geprüft werden. --mfb (Diskussion) 14:55, 23. Aug. 2017 (CEST)Beantworten
Bilder in Proteinartikeln
Letzter Kommentar: vor 6 Jahren11 Kommentare4 Personen sind an der Diskussion beteiligt
Proteinbilder bei Commons aus einem Massenimport von PDB-Bildern tragen als Teil des Dateinamens auch eine PDB-Nummer. Ist es möglich, für die 791 Protein-Artikel auf der jeweils in der Infobox genannten Uniprot-Seite die genannten PDB-Nummern mit Bildern zu sammeln und mit Bildern bei Commons abzugleichen und so eine Liste mit möglichen vorhandenen Bildern auf Commons für die Protein-Artikel ohne Bild zu generieren, die z.B. ich dann manuell abarbeiten würde? Viele Grüße, --Ghilt (Diskussion) 19:53, 17. Dez. 2016 (CET)Beantworten
So, die Protein-Artikel ohne Bild aber mit PDB-Nummer und Bild bei Commons habe ich jetzt größtenteils bebildert, nochmals vielen Dank! Wäre es möglich, für Protein-Artikel ohne Bild und ohne PDB-Nummer auf der jeweils verlinkten UniProt-Seite nach PDBs zu suchen und diese mit Commons abzugleichen? Grüße, --Ghilt (Diskussion) 16:54, 4. Jan. 2017 (CET)Beantworten
Das wäre auch möglich, auch wenn es oftmals mehrere solcher Nummern auf den verlinkten Seiten gibt. Falls gewünscht, werde ich es mir anschauen, sobald ich wieder etwas mehr Zeit habe. --Freddy2001DISK11:38, 28. Jan. 2017 (CET)Beantworten
Letzter Kommentar: vor 6 Jahren8 Kommentare5 Personen sind an der Diskussion beteiligt
Kann bitte jemand seinen Bot losschicken, um folgende Fälle zu korrigieren, also den Bindestrich und das Leerzeichen durch einen Halbgeviertstrich ersetzen:
Gleich noch zwei Anschlusswünsche zum Thema Seitenzahlen:
Bitte alle innerhalb von Vorlagen der cite-Familie vielfach fehlerhaft verwendeten Parameter |page= ändern auf |pages=, siehe z.B. Spezial:Diff/161083647/161266863
Verbreitet ist auch die abgekürzte Zitierung von Seitenzahlbereichen, bspw. S. 431-5. oder S. 823-37. - entspricht aber nicht WP:ZR, wo nur die vollständige Angabe vorgesehen ist, also S. 431-435. oder S. 823-837. Dies zumindest innerhalb von Vorlagen bei Parametereinträgen wie |Seite[n]= oder |page[s]= zu ändern, sollte fehlerfrei möglich sein.
Es gibt Publikationen, die ihre Seiten kapitelweise nummerieren, also 12-5 oder 123-2 ist Seite 5 in Kapitel 12 oder Seite 2 zu Thema 123.
Ein Automatismus sollte die Finger davon lassen.
Wenn, dann mit zwei notwendigen Bedingungen:
Zwischen den beiden Zahlen steht ein Bis-Strich, kein ASCII.
Die abgeschnittene Zifferngruppe muss numerisch größer sein als die gleichlange schließende Zifferngruppe des Startwerts.
Eigentlich ändert man als Sofortmaßnahme eher die Vorlagenprogrammierung, dass die Zweitnotation page= unerwünscht/veraltet sei, arbeitet jedoch damit normal weiter, und wirft eine Wartungskat, mit der sich die aktiven Fälle zuverlässiger als mit Quelltextanalyse des Artikels auffinden lassen, und irrtümliche Verfälschung anderer Einbindungen zumindest unwahrscheinlicher wird. Ggf. auch rote Fehlermeldung zeigen.
@PerfektesChaos: Dein Veto kann ich nicht nachvollziehen: Wenn der Bot (wie eingangs angefragt) Seitenzahlenbereiche mit dem typographisch korrekten Bis-Strich versieht, kann er auch gleich die Endseite korrigieren.
Entweder sind dann beide Korrekturen richtig oder auch schon der Bis-Strich ist falsch, weil tatsächlich eine Kapitel-Seite-Notation vorlag. Dann hätte Dein Veto aber gegen Leyos Anfrage gehen müssen.--Mabschaaf13:01, 5. Jan. 2017 (CET)Beantworten
@Mabschaaf: Du hast monospace geschrieben, und in dem sind jegliche Striche gleich breit und ASCII und typografisch nicht unterscheidbar; weder in der Seitendarstellung noch im Queltext.
Es stand auch nichts ausdrücklich von U+2013 mit bei.
Fehlerhafte weil unlogische Seitenzahlen würden von einem Bot allenfalls als mutmaßlicher Fehler markiert, aber niemals in irgendeiner Weise automatisiert korrigiert wie „kann er auch gleich die Endseite korrigieren“.
Wenn da vorher ein ASCII-Strich stand, kann überhaupt nichts verändert werden, weil der Bot nicht wissen kann, ob das eine kapitelweise Einzelseite oder ein Bereich von Seitenzahlen sein soll; deshalb darf dann auch kein ASCII-Strich durch typografisch korrekten Bis-Strich ersetzt werden. Der in einem zweiten Schritt dann jetzt eindeutig bestimmen ließe, dass es ein Bereich von Seitenzahlen sein solle.
Als Mensch baue ich sowas um; aber weil ich den Gesamtumständen und der Art der Publikation entnehmen kann, dass hier mit C&P oder Citoid aus PubMed etc. eingefügt wurde und ich Mutmaßungen über die Publikationen habe.
Es kann nur geändert werden in dem Fall, in dem
vorher ein U+2013 typografischer Bis-Strich stand
die zweite Zifferngruppe numerisch größer ist als der gleich lange Abschluss der ersten Zifferngruppe.
Andernfalls: nicht dran rühren, keinen Bot-Amok provozieren.
Ich werde mich noch in dieser Woche darum kümmern, und daraus einen Auftrag auf WP:WLWBot einstellen. Im einfachen Fall ist das durch ein Regexp machbar, allerdings halte ich das Überprüfen der neuen Linkziele bei solchen Mengen für sinnvoll, um nicht unnötige automatisch generierte Fehlverlinkungen zu erzeugen. Frohes Schaffen — Boshomi⌨09:27, 18. Jan. 2017 (CET)Beantworten
@Thgoiter:Ich hatte das letzte Woche aufgeschoben. Ich finde keine URLs für 2016, nur noch für 2017. Ist es in Ordnung URLs für das Jahr 2016 durch 2017er zu ersetzen? Frohes Schaffen — Boshomi⌨22:12, 27. Jan. 2017 (CET)Beantworten
Im Abschnitt Weblinks in den Listenartikeln dürfte es problemlos sein, wenn dort kein Datum angegeben ist. Ebenso in den Kategoriebeschreibungen. Bei beidem könnte man auch über den Einsatz einer Vorlage nachdenken. Beim Rest müsste man vermutlich besser händisch prüfen, ob es sich um Belege handelt. --тнояsтеn⇔22:16, 27. Jan. 2017 (CET)Beantworten
Ich bin derzeit RL-bedingt gut ausgelastet, aber wie es aussieht sollte in den nächsten Wochen wieder etwas Zeit übrig bleiben. Frohes Schaffen — Boshomi⌨19:49, 28. Jun. 2017 (CEST)Beantworten
Letzter Kommentar: vor 6 Jahren11 Kommentare6 Personen sind an der Diskussion beteiligt
Hallo!Im Laufe der Jahre wurde im Portal:Eishockey die Vorlage:Eishockeybox eingeführt. Bei der Durchsicht einiger älterer Artikel sind mir zahlreiche Einbindungen des nun in der Vorlage verwendeten Quelltextes aufgefallen - sprich die Vorlage wurde nicht verwendet. In gewisser Weise geht es bei allem ja auch um die Vereinfachung des Quelltextes eines Artikels, besserer Editierbarkeit, etc. Dass alles evtl. händisch per Copy&Paste zu erledigen, ist aus meiner Sicht eine Arbeit für jemanden, der Vater und Mutter erschlagen hat... Im Prinzip ginge es bei meiner Anfrage, dass der Bot folgendes von "Alt" in "Neu" umwandeln würde:
Besteht da eine Möglichkeit? Vielleicht auch so, dass man auf minimaler Ebene noch händisch nacharbeiten müsste? Mit besten Grüßen, Tomyiy✉16:27, 17. Feb. 2017 (CET)Beantworten
Wir waren im Portal mit der von links nach rechts geschriebenen/gelesenen Variante eigentlich immer recht zufrieden. Spricht etwas dagegen? Gruß Tomyiy✉19:34, 12. Mär. 2017 (CET)Beantworten
und zu gleich keinen Eintrag im ANR mit Stefan Müller mit der Vorlage {{Begriffsklärung}} haben?
Damit könnte man eine Auflistung potentieller, noch fehlender Begriffsklärungsseiten bekommen. Eine Aktualisierung alle paar Monate wäre nicht schlecht.--CG (Diskussion) 16:53, 18. Mär. 2017 (CET)Beantworten
Hi CG, das wäre möglich und gibt es (meines Wissens) auch noch nicht. Wie stellst du dir das genau vor? In alphabetischer Reihenfolge auf Unterseiten? Beste Grüße --FNDE18:16, 19. Mär. 2017 (CET)Beantworten
Ja, FNDE, in alphabetischer Reihenfolge auf Unterseiten klingt gut. Vielleicht in Aufzählungsform alle gleichnamigen Lemmata ohne BKL aufzählen, zum Beispiel so etwas:
Verstehe. Ich kann mir vorstellen, dass es eventuell SEHR lange Listen werden. Bei 2 Mio. Artikeln wird es wohl viele Lemmata geben, die noch keine BKL haben. Oder wie siehst du das? --FNDE19:16, 19. Mär. 2017 (CET)Beantworten
FNDE: Es gibt aber auch bereits sehr viele BKLs, insgesamt 239.387 Stück. Ich persönlich schätze die Liste nicht länger als etwa Tausend. Naja, wobei sehr lang relativ ist, tausend ist auch nicht wenig.--CG (Diskussion) 19:23, 19. Mär. 2017 (CET)Beantworten
Ich misch mich mal ein. Sowas ähnliches hab ich vor ein paar Wochen gemacht, aber nur mit Klammerlemmata "(Begriffsklärung)" (die sind sauber, ich glaub eine oder zwei gibts noch). In der Seite ohne Klammer gibt es 4(?) Kandidaten für so einen BKL-Hinweis. {{Begriffsklärung}}, {{Dieser_Artikel}}, {{Begriffsklärungshinweis}}, {{Weiterleitungshinweis}} sind die 4, die zu beachten sind. Manchmal ist das klammerlose Lemmata auch eine Weiterleitung und erst im Weiterleitungsziel ist einer dieser 4 Hinweise zu finden. --Wurgl (Diskussion) 19:37, 19. Mär. 2017 (CET)Beantworten
Okay, das kann man eigentlich ganz gut mit einer Datenbankabfrage gestalten. CG, wollen wir Weiterleitungen dann einfach ignorieren? Viele Grüße --FNDE10:23, 5. Apr. 2017 (CEST)Beantworten
Hey CG, ich habe jetzt erstmal eine Wartungsliste mit den möglichen BKL erstellt, die für diese Aufgabe in Frage kommen. Sind etwa über 500, meinst du das ist plausibel? Die einzelnen Artikel könnte man jetzt als Unterpunkte setzen, oder eben nur die betreffenden ausgeben. Wenn die Jungs & Mädels vom BKL-Projekt Interesse haben, kann man Liste auch tagesaktuell halten, das wäre kein Thema. Schöne Grüße --FNDE13:20, 5. Apr. 2017 (CEST)Beantworten
WOW! Vielen, vielen herzlichen Dank, FNDE. Die Liste passt und ist sogar überraschend übersichtlich mit knapp über 500. Ich finde, die betreffenden Artikel noch als Unterpunkte mitaufzulisten, ist nicht unbedingt nötig, da du die „Suche“ als Link hinzugefügt hast. Die Suche tut's für meine Zwecke auch. Ich habe mal gleich zum Einweihen der Wartungsliste Barrio de San Pedro angelegt.^^ --CG (Diskussion) 16:36, 5. Apr. 2017 (CEST)Beantworten
CG: Ich kann noch an der Liste arbeiten, wenn ich weiß, was verbessert werden soll :) Insofern können die die Leute vom BKL-Projekt jetzt schon direkt informieren. Möchtest du das auf der dortigen Disk machen? Vielleicht gibt es ja besondere Wünsche, die es noch zu berücksichtigen gilt. Die Suche scheint ja soweit auch zu funktionieren: die Klammer-Artikel sind immer unter den ersten Ergebnissen. Schöne Grüße --FNDE17:44, 5. Apr. 2017 (CEST)Beantworten
Klassifizierung von Mineralen prüfen und ggf. korrigieren
Letzter Kommentar: vor 6 Jahren5 Kommentare3 Personen sind an der Diskussion beteiligt
Ausgehend von dieser Anfrage im Portal:Minerale bräuchte ich Hilfe für folgendes Problem:
Es geht darum, alle Minerale dahingehend zu überprüfen, ob in der Infobox und falls möglich im Abschnitt „Klassifikation“ die jeweilige Mineralklasse sowie die System-Nummern nach
korrekt eingetragen sind.
Vor allem bei der zweiten Systematik (Strunz 9. Aufl.) gibt es vermutlich noch viele veraltete Zuordnungen in den Artikeln, seit ich diese auf den letzten bekannten Stand aktualisiert habe.
Kriegt man das per Bot hin? Mir würde da auch schon eine Wartungsliste reichen. Danke im voraus für die Mühe und viele Grüße -- Ra'ikeDisk.LKUWPMin20:32, 14. Apr. 2017 (CEST)Beantworten
Hallo Thomas Obermair 4, nun ja, erledigt insoweit, als dass ich mit den Listen in meinem Benutzernamensraum zu Strunz 8, Strunz 9 und Dana zumindest eine Übersicht habe, bei welchen Mineralen die System-Nummern nicht mit denen in den o.g. Systematik-Listen übereinstimmt.
Inzwischen habe ich allerdings so einige Artikel überarbeitet, d.h. meine BNR-Listen müsste Doc Taxon freundlicherweise sowieso aktualisieren. Auf der anderen Seite frage ich mich aber auch, ob ein Bot die System-Nr. nicht automatisch im Artikel korrigieren könnte. Maßgeblich sind jedenfalls immer die o.g. Systematik-Listen. Ausnahmen, die von Hand geprüft werden müssten, wären dann nur noch Minerale, die z.B. in den Listen nicht auftauchen, weil sie noch zu neu sind und entsprechend noch keine Zuordnung in den Systematiken erhalten haben (vergl. Agakhanovit-(Y)) oder weil sich der Mineralname geändert hat (vergl. Argentobaumhauerit, ehem. Baumhauerit-2a) oder weil es sich wie beim Chabasit um eine Sammelbezeichnung handelt.
Der Link Zeitschriftendatenbank (ZDB) führt auf die Seite der Zeitschriftendatenbank der Staatsbibliothek Berlin, über deren Suchfunktion ermittelt werden kann, in welchen Bibliotheken das Deutsche Sportecho zur Verfügung steht. Von einer Fehlfunktion kann daher keine Rede sein, und es gibt keinen Handlungsbedarf. -- Greifen (Diskussion) 11:31, 22. Apr. 2017 (CEST)Beantworten
@Greifen: Das ist aber ziemlich unnütz. Entweder gibst Du konkret eine ISSN mit Vorlage:ISSN an (damit wird ein Deeplink zur ZDB erzeugt, der wirklich zielführend ist) oder der Link kann raus. Sonst könnte man schlicht von jedem Einzelnachweis, der sich auf eine Zeitschrift bezieht, zusätzlich zur ZDB verlinken. Im Artikel Deutsches Sportecho sind die beiden ISSN-Links drin, daher ist die interne Verlinkung dorthin einerseits völlig ausreichend, andererseits noch besser als ein massenhaft gesetzter Link auf eine Suchseite (auf http://dispatch.opac.dnb.de/ gibt es übrigens auch noch 84 Links, die zwar funktionieren, aber entsprechend verbessert werden sollten).--Mabschaaf13:58, 22. Apr. 2017 (CEST)Beantworten
@Greifen: Es geht doch darum, für Dich als Autor einen akzeptablen Weg zu finden - dazu musst Du Dich nicht mit Vorlagen auskennen. Die Liste der Artikel mit defekten Links hatte ich oben schon verlinkt, die sind also bekannt. Mein Vorschlag wäre schlicht aus dem bisherigen (ich bleibe jetzt mal beim Beispielartikel Rüdiger Braun, jeweils Quelltext):
Wenn davon eine Lösung für Dich in Ordnung ist, kann man hier weiter nach einem Botbetreiber suchen, der die knapp 340 Einträge in den Artikeln entsprechend ändert.--Mabschaaf10:22, 13. Mai 2017 (CEST)Beantworten
Die ISSN-Version scheint am besten geeignet. Das Problem sind die Jahrgangszahlen. Es kann nicht immer 1981-1991 stehen, da je nach Biografie variabel. Wenn kein Widerspruch erhoben wird, werde ich die ISSN-Version ab sofort bei neuen Artikeln verwenden. -- Greifen (Diskussion) 10:33, 13. Mai 2017 (CEST)Beantworten
@Mabschaaf: Moin, wie ist der Stand da bei den Vorlagen? Gibt es da ein Muster nach dem ich ersetzen kann? Ich kann, so wie es bisher aussieht das mit zwei Tools von mir ganz gut Abfrühstücken, einmal eine automatische Korrektur, die funktioniert, wenn man den exakten String hat, der ersetzt werden soll, und für die ohne die Vorlage dann mit Halbautomatik und Pattern, wie ich es gestern bei den doppelten Kommata gemacht habe. Viele Grüße, Luke08151501:36, 30. Mär. 2018 (CEST)Beantworten
@FNDE: Alle Künstler die mit einer Single bzw. Album die Charts erreicht haben sind hier aufgeführt. Die Listen wurde von Wikipedianern immer wieder aktualisiert nur ist sie seit längerem nicht mehr aktualisiert worden. LG --Thomas Obermair 4 (Diskussion) 20:00, 31. Mai 2017 (CEST)Beantworten
Der Ingo Appelt (Komiker) ist in der Liste, aber wie soll ein Bot den identifizieren? Wenn die Vorlage Infobox Chartplatzierungen im Artikel ist, dann ist das machbar (das könnte der Apperbot machen), aber diese Vorlage ist nicht überall. Bei einigen ist eine Tabelle wie hier: Yasmin K. Bei anderen findet man die Info als Text: Acker Bilk, David Bowie oder gar nix: Guido Born. Ich zweifle daran, dass hier ein Bot was machen könnte. --Wurgl (Diskussion) 20:19, 31. Mai 2017 (CEST)Beantworten
@Thomas Obermair 4: okay, meine Frage zielt auch auf die Bedenken von Wurgl ab, wie hat ein Bot das damals zusammengestellt? Ich kenne mich in dem Bereich nicht aus, aber könnte die Funktionsweise ggf. nachbilden. --FNDE22:42, 31. Mai 2017 (CEST)Beantworten
@Wurgl: Das der Bot alle bereits angelegten Artikel durchsucht macht wenig Sinn da es sich um eine Positivliste handelt die aufzeigen soll welche Interpreten es in die Charts geschafft haben und über die noch kein Artikel existiert. Der Bot müsste z.B. auf die Webseite Offizielle Deutsche Charts zugreifen und dann mit der bereits existierenden Positivliste abgleichen. LG --Thomas Obermair 4 (Diskussion) 21:08, 1. Jun. 2017 (CEST)Beantworten
Okay, das klingt eigentlich nach einer spannenden Aufgabe. Also zusammengefasst: Charts ab 2006 durchforsten ob es Interpreten gibt, die noch nicht in der Positivliste enthalten sind. Korrekt? Wenn man schon mal dabei ist könnte man das ja auch fortlaufend machen, also mit wöchentlicher (oder täglicher?) Aktualisierung. --FNDE22:27, 1. Jun. 2017 (CEST)Beantworten
@FNDE: Ja! Aber bitte von Beginn der Aufzeichnungen da die Liste wie schon erwähnt händisch zusammengestellt wurde und Fehler nicht auszuschließen sind. Für einen Bot ist die Aufgabe relativ schnell erledigt. Die Aktualisierung sollte wöchentlich erfolgen da die Charts wöchentlich veröffentlicht werden. LG --Thomas Obermair 4 (Diskussion) 17:11, 2. Jun. 2017 (CEST)Beantworten
Ja, immerhin ist die Ausgabe auf der Chartseite einigermaßen strukturiert. Eine API haben die zwar nicht, ich denke aber ich bekomme das hin. Wird aber noch etwas dauern, da ich erstmal geplante Botaufgaben abarbeite. Beste Grüße --FNDE21:11, 2. Jun. 2017 (CEST)Beantworten
Also händisch ist schwierig. Die Wunschartikel sind zwar vollständiger und zuverlässiger, weil ich nicht auf das Format der Chartseiten angewiesen bin und gleichzeitig auch noch die Links prüfen und anpassen kann, aber ich hänge derzeit weit hinterher und habe auch schon früher eine größere Lücke drin. Das sind netto 2-3 Stunden pro Woche Arbeit.
Die Positivlisten wurden teilweise händisch erstellt, allerdings hat 2010 Firefox13 mal ein Programm geschrieben, das vor allem die Hung-Seiten (alles, was man von hitparade.ch aus links oben aufrufen kann) automatisch ausgewertet hat und die Seiten neu erstellt hat (z. B. für Frankreich). Allerdings haben wir da nicht weitergemacht bzw. das verstetigt. Und er ist kaum noch aktiv. Machbar wäre es und wünschenswert auf jeden Fall auch.
Allerdings eine Warnung: das Thema "offizielle" Charts ist weitaus komplexer als man denkt. Beim Beispiel Frankreich stimmen die Hung-Seiten seit 2012 nicht mehr mit den offiziellen Charts überein und die offizielle Seite ist gelinde gesagt schwierig. Die anderen vorhandenen Länder sind weitgehend okay, obwohl Hung da oft nicht die offizielle Seite ist. Wollte man noch andere Länder einbeziehen, gibt es weitere Probleme, Spanien und Italien kann man bspw. nicht ohne Weiteres von Hung übernehmen.
Für die erste Zeile (DACH+UK+US) hat man vier verschiedene, aber zumindest zuverlässige Quellen, das wäre der Kern und auch wichtig für die WP. Der Rest ist nicht so wichtig und eher eine Frage der Vollständigkeit. Gut wäre auf jeden Fall eine Absprache mit der WP:Redaktion Musik oder dem Portal:Charts. Gruß -- Harro (Diskussion) 14:15, 12. Dez. 2017 (CET)Beantworten
webpaper.nzz.ch gibt es nicht mehr - Tote Links
Letzter Kommentar: vor 6 Jahren13 Kommentare8 Personen sind an der Diskussion beteiligt
Hallo,
die Subdomain webpaper.nzz.ch (Neue Züricher Zeitung) wurde in epaper.nzz.ch integriert. Daher sind alle Links, die auf eine Seite bei webpaper.nzz.ch zeigen, tot. Kann man diese Links automatisiert als tote Links markieren?
Das Problem dürfte sein, daß die Mementos nicht denselben Zeitstempel tragen – es dürfte notwendig sein, daß jemand jeden einzelnen Link einzeln bearbeitet. Wobei sich mir die Frage stellt, ob man nicht sinnvoller nach epaper.nzz.ch umstellt. Dazu müßte man aber wissen, ob und wie die Links umgestellt wurden.
M. W. sind die Artikel nicht frei verfügbar unter epaper.nzz.ch, also ist archive.org optimal. Vielleicht kann der bot einfach das erste vorhandene Memento nehmen oder ist dies technisch nicht möglich? --KurtR (Diskussion) 03:21, 23. Mai 2017 (CEST)Beantworten
@Wurgl: Nein, Links werden nicht per Bot auf Webarchive umgebogen (es sei denn, es gibt eine geprüfte 1:1-Liste für Ersetzungen). Beim Umbiegen auf ein Archiv ist immer eine inhaltliche Prüfung nötig, die ein Bot nicht leisten kann. Deshalb hat auch GiftBot bei den defekten Weblinkmeldungen auf den Diskussionsseiten nur geprüft, ob es überhaupt Archiveinträge gibt und dann einen Ersetzungsvorschlag gemacht. So, wie ich das einschätze, ist diese Anfrage per Bot nicht lösbar. --Mabschaaf12:38, 23. Mai 2017 (CEST)Beantworten
Ich meinte das eher allgemein. Mir erscheint es jedenfalls vernünftiger, diese ca. 110 Links per Hand auf ein Webarchiv umzubiegen als sie als tot zu markieren (was nichts anderes ist als ein Scheintod, weil der übernächste wirft das dann raus) oder gar sofort zu entfernen. Und 110 sind per Hand zwei oder drei Abende (oder ein langer Abend und dann tanzende Sternchen vor den Augen), das ist jedenfalls machbar. --Wurgl (Diskussion) 14:19, 23. Mai 2017 (CEST)Beantworten
@Mabschaaf @Wurgl: Es braucht in diesem Fall keine inhaltliche Prüfung, die Domain wurde abgeschaltet, der Link ist im Archiv korrekt. Manuell wird damit nur Zeit vergeudet sowie tauchen die manuellen Änderungen in den BEOs auf, was auch nervend ist. Wurgl: Als Tot markieren mit der Vorlage finde ich auch schlecht, auch wenn mit der Vorlage auf eine Memento-Übersichtsseite verlinkt wird. Was aber dann nochmals einen extraklick vorrausetzt für den User zum Anschauen. --KurtR (Diskussion) 17:55, 23. Mai 2017 (CEST)Beantworten
Danke für die Initiative! GiftBot macht zwar einen tollen Job, aber die viele Handarbeit ist nicht (mehr) zu bewältigen. Die angebotene Unterstützung ist mehr als willkommen. --Leyo09:28, 8. Aug. 2017 (CEST)Beantworten
Linküberprüfung US-Ortsartikel / Machbarkeit?
Letzter Kommentar: vor 7 Jahren17 Kommentare5 Personen sind an der Diskussion beteiligt
Hallo, das ist ist erst einmal eine Voranfrage, um das sinnvollste Vorgehen zu ermitteln.
Das US Census Bureau hat vor einigen Wochen seine Ortseinwohnerzahlendatenbank umgestellt; Einwohnerzahlen finden sich nun stets unter (bspw.)
wobei Maricopa city, Arizona der variable Teil ist. Der Ortsartikel steht aber unter Maricopa (Arizona), aber in der Infobox setzen wir:
Name=Maricopa
Bundesstaat= Arizona
Typ = City
D.h. der variable Teil ließe sich erzeugen durch <Name>, <Bundesstaat> <Typ> wobei der Typ immer Lowercase ist, wenn er nicht CDP ist.
Die Frage ist, wie man am besten verifiziert, ob dieser Link existiert. Dies ist am ehesten dann nicht der Fall, wenn Benutzer den Typ falsch gesetzt haben. Soll ich dazu erst einmal die IB umbauen, sodaß der Link automatisch erzeugt ist, und ein Botbetreiber prüft dann, ob der so existierte Link existiert? --Matthiasb – (CallMyCenter)23:49, 20. Mai 2017 (CEST)Beantworten
Ich nehme an es betrifft ausschließlich Vorlage:Infobox Ort in den Vereinigten Staaten? Wenn du den Link einbaust, lässt sich über die Weblinksuche leicht eine vollständige Linkliste erzeugen. Derzeit haben wir nur 5 Links zur Seite: Carmi (Illinois), Jerseyville, Maricopa (Arizona), Osceola (Arkansas) und diese Seite. Achte auf die Leerzeichen, sonst wird zu viel als Linktext interpretiert. %20 ergibt ein Leerzeichen in URLs, underscore funktioniert (anders als bei Wikipedia) nicht. Ich habe den Link oben entsprechend angepasst damit er funktioniert. --mfb (Diskussion) 03:03, 21. Mai 2017 (CEST)Beantworten
Zum Prüfen der Links müssen keine Änderungen an Artikeln vorgenommen werden. Es reicht, wenn Du Datentripel wie das genannte für alle betreffenden Artikel zur Verfügung stellen kannst, z. B. in einer Excel-Datei. Dann kann man offline die Links zusammenbauen und eine URL nach der anderen automatisiert prüfen. Eine Botaufgabe im Wikipedia-Sinne wäre das nicht. —MisterSynergy (Diskussion) 09:50, 21. Mai 2017 (CEST)Beantworten
Ich würde als „Tool“ letztlich cURL nutzen. Nicht direkt von der Kommandozeile, sondern mit einem Wrapper-Script drumrum, welches die Inputdaten geeignet einliest, zu den gewünschten Links zusammenbaut, dann mit Aufruf von cURL testet und das Ergebnis dann auswertet und passend loggt. Das braucht vielleicht ne gute Bildschirmseite Code, der aber mit der passenden Erfahrung recht schnell getippt ist. —MisterSynergy (Diskussion) 09:57, 21. Mai 2017 (CEST)Beantworten
Hm. Das hilft mir jetzt nicht wirklich, ich hätte bei einer ganz anderen Baustelle nämlich ebenfalls eine solche Liste. Ob Matthiasb über die "passende Erfahrung" verfügt, kann ich natürlich nicht beurteilen. Könnt ihr so etwas nicht als kleines Tool irgendwo anbieten?
Mit fällt dazu spontan auch die Weblinksuche von Benutzerin:Giftpflanze ein, vielleicht wäre das so erweiterbar, dass man irgendwo ein zusätzliches Häkchen setzt und für die gefundenen Links werden die HTTP-Statuscodes gleich mitgeliefert?--Mabschaaf10:16, 21. Mai 2017 (CEST)Beantworten
Einmalige Jobs kannst Du hier anfragen, vielleicht findet sich jemand zum Abarbeiten. Je nach Aufwand wäre ich beispielsweise dazu bereit, und schrieb schon dass es für mich nicht so aufwändig wäre. Du müsstest halt die Rohdaten zusammenstellen und bekommst nachher ne Liste mit dem Status der einzelnen Links, womit Du dann machen kannst was Du möchtest.
Teil der Aufgabe kann es sein, die Links erstmal aus Rohdaten zu konstruieren (wie in dieser Anfrage). Das braucht für sich schonmal ganz einfachen Programmcode (oder meinethalben auch Excel-Voodoo) als Vorbereitung. Was exakt zu tun ist, hängt aber eben von dem Einzelfall ab.
Wenn Du die Prüfung durchführst, sieht der zu prüfende Server die IP-Adresse des prüfenden Rechners. Da willste als Betreiber lieber selbst entscheiden, wie genau Du da vorgehst. Auch sollte man als Prüfer die robots.txt des Servers respektieren.
Da sind ein paar Einzelfall-Entscheidungen dabei, wegen derer ich zum Beispiel so ein Tool nicht anbieten möchte, gleichwohl auf Basis von Einzelfallentscheidungen helfen könnte. —MisterSynergy (Diskussion) 10:37, 21. Mai 2017 (CEST)Beantworten
Die Weblinksuche wäre ein recht komfortables Tool, um an diese Datentripel zu kommen. Alternativ könnte man aus der API alle 11000 Artikel mit der Vorlage holen und selbst parsen, aber ich finde die API maximal unübersichtlich. Das Prüfen der URL ist ggf. nicht so ganz trivial da die Seite einen weiterleitet und man wohl das Weiterleitungsziel testen muss (eine ungültige Eingabe führt zu einer gültigen Webseite - aber nicht zu einer Einwohnerzahl), aber ich habe mir nicht angeschaut was cURL zurückgibt. --mfb (Diskussion) 12:13, 21. Mai 2017 (CEST)Beantworten
Genau das habe ich jetzt mal gemacht. Wie erwartet: die Datenlage in den Templates ist ganz gut, ein paar Sachen bei den Typen müsste Benutzer:Matthiasb vielleicht erstmal reparieren:
Bundesstaatenstatistik: Florida → 920; Kalifornien → 678; Wisconsin → 618; Ohio → 617; Texas → 467; Illinois → 460; Minnesota → 415; Iowa → 408; New Jersey → 285; Alabama → 274; New York → 254; Missouri → 253; Pennsylvania → 236; Arizona → 220; Vermont → 215; Michigan → 154; Alaska → 150; Maine → 147; Massachusetts → 136; Louisiana → 134; Colorado → 115; Connecticut → 114; Washington → 109; New Mexico → 106; Virginia → 102; Georgia → 99; Indiana → 94; Utah → 87; Tennessee → 83; Arkansas → 81; North Carolina → 81; Oklahoma → 79; Kansas → 78; Delaware → 77; Nebraska → 74; Kentucky → 69; Montana → 65; Oregon → 64; South Dakota → 64; Maryland → 60; North Dakota → 55; New Hampshire → 53; Wyoming → 45; Mississippi → 44; West Virginia → 42; South Carolina → 39; Rhode Island → 38; Nevada → 38; Idaho → 34; Puerto Rico → 23; Hawaii → 17; Amerikanische Jungferninseln → 5; Amerikanisch-Samoa → 3; District of Columbia → 2; Guam → 2; ''Parameter leer'' → 2; Nördliche Marianen → 1
Typenstatistik: City → 4206; Town → 1508; CDP → 1053; Township → 668; Village → 646; Borough → 232; Census-designated place → 209; ''Parameter leer'' → 177; Unincorporated Area → 68; city → 60; town → 47; Unincorporated Community → 43; village → 42; Unincorporated area → 40; Stadt → 40; Neighborhood → 13; Plantation → 11; Municipality → 10; Unincorporated community → 9; Geisterstadt → 8; census-designated place → 8; unincorporated community → 8; Hamlet → 5; Unincorporated → 5; [[Census-designated place]] → 3; Populated Place → 3; CITY → 2; Home Rule Municipality → 2; open town meeting → 2; Typ → 2; Borough (New Jersey) → 2; Ortsteil → 2; Municipal corporation → 2; Census-designated Place → 2; Charter Township → 2; unincorporate community → 2; VILLAGE → 2; Gemeindefreies Gebiet → 2; Civil Township → 2; Borough Council → 1; -City → 1; [[Ghost town]] → 1; Place → 1; [[Gemeindefreies Gebiet]] → 1; Census-Designated Place → 1; Ortschaft → 1; [[City]]<!--Settlement type--> → 1; Gemeinde → 1; Borough in Pennsylvania → 1; CDF → 1; Town, Village → 1; Second Class City → 1; Township (Minor Civil Division (MCD)) → 1; Independent city → 1; Open town meeting → 1; uncorporated community → 1; Dorf → 1; borough → 1; Territorial Charter Municipality → 1; adm2nd → 1; Municitpality → 1; County Seat → 1; Home rule municipality → 1; municipality → 1; gemeindefreies Gebiet → 1; [[City]] → 1; Unincorporate Community → 1; Citz → 1; Ort → 1; Vilage → 1; [[Volksversammlung]] → 1; Unincorporate community → 1; Unincorporated Place → 1; [[Town]] → 1; Statutory Town → 1; Gore → 1
Für die Typen gibt es eine Wartungskategorie, die kommt als nächstes dran. Das Problem hat Mfb richtig erkannt. Eine "ungültige" URL liefert kein 404. "Ungültig" in diesem Sinne wäre bspw., wenn der Typ falsch gesetzt wurde, z.B. "town" statt "city" oder der Typ sich seit der letzten Volkszählung geändert hat.
Der Hintergrund der ganzen Anfrage ist der: bis vor einigen Monaten hat das Census Bureau PDFs zur Verffügung gestellt, deren URL sich zusammensetzte u.a. aus dem Postcode des Bundesstaates, der FIPS-10 des Ortes und einigen weiteren Ziffern. Diese PDFs gibt es seit Januar oder Februar d.J. nicht mehr. Inzwischen funktionieren aber auch alle anderen Links nicht mehr, die wir in den letzten 10 Jahren eingebaut haben, besonders häufig übrigens innerhalb der Vorlage:USCensusPop, die üblicherweise im Abschnitt "Demographie" steht. Leider kann man ja von einer Vorlage nicht auf den Inhalt einer anderen Vorlage zugreifen, deswg. habe ich mir folgenden Workaround ausgedacht. In der Infobox setze ich bei der Einwohnerzahl (EWZ) den Link, aber benamt, z.B . (ref name="CensusBureau 2010"), und die Vorlage:USCensusPop ruft diesen dann auf (ref name="CensusBureau 2010"/). In einem weiteren Schritt sollten dann natürlich auch die ungültigen Links im Fließtext verschwinden bzw. ersetzt werden. Um da aber erst einmal hinzukommen, ist zu prüfen, ob der Typ korrekt erfaßt ist; da werde ich demnächst einen Abgleich mit Wikidata einbauen und natürlich müssen Ortsname und Bundesstaat korrekt erfaßt sein (der Default per Lemma hilft nicht, weil unsere Klammererweiterung stört). --Matthiasb – (CallMyCenter)11:21, 22. Mai 2017 (CEST)Beantworten
@Matthiasb: Warum überhaupt die Quickfacts verwenden und nicht die Interactive Population Map? Das zugehörige Datenblatt lässt sich nämlich einfach über https://www.census.gov/2010census/popmap/ipmtext.php?fl=''FIPS'' aufrufen (wobei FIPS die FIPS ohne Dash darstellt)? Die Linkgenerierung ist IMO deutlich einfacher. Oder gibt es da Probleme? Yellowcard (D.) 11:44, 22. Mai 2017 (CEST)Beantworten
Antwort 1: Weil das zwar offenbar die umpfzehnte Möglichkeit ist, die 2010er Zahlen abzurufen, aber ich bei dieser Möglichkeit nicht auf die 2000er-Zahlen oder bspw. die 2015er-Schätzung wechseln kann.
Antwort 2: Weil ich diese Seite bisher nicht kannte.
Antwort 3: Weil ich eigentlich nur die EWZ damit belegen wollte.
Daraus ergeben sich übrigens ganz andere Prüfanforderungen, nämlich of die FIPS korrekt erfaßt ist (bislang checkt die Box ja nur, ob es auf Wikidata eine FIPS gibt, wenn es bei uns keine gibt). Und unincorporated areas müssen ausgeschlossen werden. Danke für den Hinweis; aus dieser Variante ergeben sich weitere Möglichkeiten, überhaupt die Demographie zu belegen. --Matthiasb – (CallMyCenter)13:15, 22. Mai 2017 (CEST)Beantworten
Um die EWZ zu belegen, reichen die 2010er-Daten doch aus, auf die Schätzungen wollen wir m.W. gar nicht zurückgreifen. Die FIPS muss natürlich korrekt sein, da scheint mir aber eine ziemlich hohe Verlässlichkeit in unserem Bestand vorzuliegen (sofern sie nicht fehlt). Falsche FIPS habe ich bislang gar nicht entdeckt, wobei Du da sicher den größeren Überblick hast. Unincorporated areas müssen ohnehin immer ausgeschlossen werden, solange für sie keine offiziellen Zahlen erhoben werden. Grüße, Yellowcard (D.) 13:29, 22. Mai 2017 (CEST)Beantworten
Doch, innerhalb der Vorlage:USCensusPop nutzen wir regelmäßig die Schätzungen. Wobei das sicher ein Kandidat für Umstellung auf Wikidata ist; ich wüßte jedenfalls nicht, wer Lust und Zeit hat, das jährlich einzupflegen. Aber einen Schritt nach dem anderen. Wir haben ja noch gefühlt hunderttausend Artikel, in denen die historischen EWZ mit gewöhnlicher Tabellensyntax dargestellt werden oder völlig fehlen. (Ich habe auch nicht vor, die Ortsartikelpflege zu meiner Hauptaktivität zu machen; das muß alles en passant gehen, auch wenn ich nicht davor zurückschrecke, mal die eine oder andere Nacht damit um die Ohren zu schlagen.) Mittelfristig glaube ich daran, daß wir auf das System übergehen, das in der FR:WP verwendet wird. --Matthiasb – (CallMyCenter)21:06, 22. Mai 2017 (CEST)Beantworten
Zu Thema falsche FIPS: die häufigsten Fehler, die ich sehe, sind das Fehlen der "Vorwahl" für den Bundesstaat, also die 04- für Arizona und die Verwechslung von FIPS und GNIS-ID. Aber stimmt schon, wir sind da ziemlich gut, den Grundstock (6–7000 Artikel) hatte ich damals zusammen mit Cactus26 gelegt, weil wir damals Original-ZIP-Dateien vom Census Bureau verwurstet haben, als wir erstmals GNIS und FIPS per Bot in die Artikel eingearbeitet haben – soviel Eigenlob muß ausnahmsweise erlaubt sein. --Matthiasb – (CallMyCenter)21:19, 22. Mai 2017 (CEST)Beantworten
Umbrüche innerhalb des Begriffs mit geschützten Leerzeichen verhindern
Letzter Kommentar: vor 6 Jahren20 Kommentare6 Personen sind an der Diskussion beteiligt
Hallo zusammen,
leider findet man sehr häufig die Zeichenkette
Mac OS X
(insource:/Mac OS\ X/). Bei dieser Schreibweise wird nach dem Mac umbrochen, weswegen diese Schreibweise völlig unlogisch ist. Ich denke, entweder man macht das richtig oder gar nicht. Da es aber für „gar nicht“ keinen rationalen Grund gibt, bleibt nur noch das „richtig machen“.
Folgende Ersetzungen sollte ein Bot daher vornehmen:
a)
Mac OS X
durch
Mac OS X
b)
Mac OS X
durch
Mac OS X
c)
Mac OS
durch
Mac OS
d)
OS X
durch
OS X
Da ich, als Typograf, ständig Brechreiz kriege wenn ich sowas sehen muss, wäre ich sehr erfreut, wenn das ein Bot übernehmen täte. -- LG, ℳ웃7923:33, 22. Mai 2017 (CEST)Beantworten
Bei 135 Ergebnissen könnte man das ja mit ein paar anderen Aufgaben verbinden, z.B. geschützte Leerzeichen parallel in normale umwandeln. Ist beides jedenfalls schnell gemacht. Sagt Bescheid wenn es losgehen soll. --FNDE18:21, 26. Mai 2017 (CEST)Beantworten
Sehe das ähnlich. Mac OS könnte man eigentlich so lassen, sind immerhin 800 Seiten die wegen einer eher kosmetischen Änderung geändert werden müssten. Bei den anderen beiden: da müssen wir auf jeden Fall darauf achten:
dass in Wikilinks nur der jeweilige Beschreibungstext ersetzt wird
dass keine Vorlagen mit dieser Bezeichnung (falls es sie gibt) ersetzt werden
Code, Syntaxhighlight, Kategorien sollte ebenfalls ausgeschlossen werden
Versionsnummern sollten vor Umbrüchen geschützt werden
in Zitaten wäre es meines Erachtens ins Ordnung
dass alle Ersetzungen parallel in einem Edit vorgenommen werden
Wenns dazu Konsens gibt kann ich das machen, mein Bot kann das bereits, dann muss Kollege Quotengrotte da nicht das Rad neu erfinden. Beste Grüße --FNDE11:13, 16. Jun. 2017 (CEST)Beantworten
Mir wäre es schon wichtig, wenn man das nach typographischen Regeln macht. Gibt es denn eindeutige Regeln in der Wikipedia, wie da zu verfahren ist?
Generelle Regeln besagen, dass man z.B. keine Zahlen von den zugehörigen Wörtern trennen soll. Siehe z.B. hier.
Vermeidung sinnentstellender Trennungen (etwa Urin-stickt wird nicht so getrennt, wenn, dann als Ur-instikt) – die Wikipedia trennt ohnehin keine Wörter (Silbentrennung)
Keine Trennung innerhalb von Überschriften – die Wikipedia trennt ohnehin keine Wörter (Silbentrennung)
Trennungen über Seitengrenzen hinweg vermeiden – in der Wikipedia online nicht anwendbar
Keine Abkürzungen trennen – wird in der Wikipedia u.a. bei z.&nbps;B. gemacht
Zwei gleiche Silben sollten nicht untereinander stehen – könnte wohl passieren… wäre nur über die Wikimedia-Software abzudecken
Keine Trennung zwischen Zahl und zugehörigem Wort (Wörtern)
Beispiele: Mac OS X Server 10.6, MS-DOS 6.22, Windows NT 3.51
Zu viele Trennungen hintereinander vermeiden – die Wikipedia trennt ohnehin keine Wörter (Silbentrennung)
Gibt es sonst noch Regeln, die man befolgen sollte?
Und dann kommen die konkreten Fälle: Sollte man z.B. bei MS-DOS 6.22 MS-DOS 6.22 verwenden? Und sollte man den Bindestrich bei MS-DOS als geschützten Bindestrich ausführen, damit es nicht zu einer automatischen Worttrennung beim Bindestrich an einem Zeilenende (je nach Auflösung im Browser anders) kommt?
Ich bin kein Typograph, aber es scheint mir schon so zu sein, dass es Sinn macht, Wörter, die zusammenhängen und von denen ein Teil nicht größer als 2 Zeichen ist, nicht zu Trennen.
Das würde konkret bedeuten:
Mac OS X – oder, wenn man OS X als eine > 2 Zeichen-Einheit betrachtet: Mac OS X
Aber, wie gesagt, ich bin kein Experte. Das sind offenbar andere. Nur kommt es mir dann doch zuviel vor, wenn Mac OS X Server dabei herauskommt… ‣Andreas•⚖11:58, 16. Jun. 2017 (CEST)Beantworten
Zu "Zwei gleiche Silben sollten nicht untereinander stehen – könnte wohl passieren… wäre nur über die Wikimedia-Software abzudecken". Nein, das kann keine serverseitige Software, denn diese kennt die Breite des Browserfensters nicht und auch nicht den von User eingestellten Font. Wenn, dann könnte man das mit Javascript im Browser machen, aber der Aufwand würde in keinem Verhältnis zum Gewinn stehen. --Wurgl (Diskussion) 12:04, 16. Jun. 2017 (CEST)Beantworten
Nachtrag: Um bei der Wahrheit zu bleiben: ich selbst habe Mac OS verwendet, wenn es alleine dasteht. Bei Mac OS X habe ich die Priotität verschoben zugunsten eines zusammenhängenden „OS X“ ebenso wie bei z.B. Mac OS 9, damit die „9“ nicht alleine in der nächsten Zeile steht. Hingegen finde ich in diesem Fall, dass man das Mac als letztes Wort in der einen Zeile ohne gröberen Brechreiz (und ohne Probleme) mit dem „OS 9“ in der nächsten Zeile verbinden kann und somit der Lesefluss nicht gestört ist. Andere (z.B. @Messerjokke79:) sehen das anders. Auch bei Mac OS 9.2.2 habe ich den Fokus auf ein Zusammenstehen von „Mac OS“ entgegen der Regel mit der Versionsnummer gelegt, weil mir ein 9.2.2 in der nächsten Zeile hier weniger Brechreiz verursacht hat als umgekehrt. Das heißt: auch ich habe hier Mist gebaut. Liegt aber wohl auch daran, dass keine Regeln diesbezüglich zu finden sind… Was es mit dem sehr subjektiven Brechreiz dann nicht einfacher macht, einen Konsens zu finden… ‣Andreas•⚖15:18, 18. Jun. 2017 (CEST)Beantworten
Noch unentschieden. Es gibt offenbar keinen Typographen oder jemanden, der sagen kann, wie man die Zeilenumbrüche korrekt macht. Auch die Regeln der Wikipedia helfen da nicht weiter. Dass man "OS X" zusammenhängt (OS X), ist wohl nachvollziehbar, aber eben nur ein erster Schritt, der dann aber die wirkliche Frage erst aufwirft, nämlich die, wie weit das Ganze dann gehen soll.
[Nachtrag] Das ist ja nicht die Möglichkeit, dass es keine einzige Typgraphie-Quelle gibt, die das ansatzweise erklärt, oder?
@Hydro: Ist zwar reine Syntaxoptimierung, finde dein Argument mit dem Vorbild für Neulinge aber auch zutreffend. Vielleicht ergibt sich hier ja ein Konsens, wenn man mehrere Aufgaben kombiniert. Ich würde mich der Aufgabe annehmen, da wir demnächst einen größeren Botlauf mit ca. 50-70.000 Artikeln durchführen. Da könnte man diesen Job schon mal integrieren, sicherlich werden wir da auch ein paar erwischen. Ansonsten könnte ich in Kombination zu dieser Aufgabe anbieten:
Ersetzung von geschützten Leerzeichen
Leerzeichen zwischen Einzelnachweisen entfernen (siehe oben)
Sternchen vor Commons-Vorlage entfernen (siehe oben)
Das sind meines Wissens keine veralteten Syntaxelemente, da würde ich die Finger von lassen. Dagegen dürfte [[Image: auch veraltet sein, und das ist ebenfalls ein paar tausend Male vorhanden. —MisterSynergy (Diskussion) 17:14, 27. Mai 2017 (CEST)Beantworten
In der Tat: Es gibt Benutzer, die finden, man müsse die Syntax eindeutschen, und es gibt welche (wie mich), die eher dagegen sind. Veraltet ist an |thumb etc. nichts, auch wenn es Leute gibt, die meinen, sie bei Artikelbearbeitungen unbedingt durch die eingedeutschte Variante ersetzen zu müssen. Gestumblindi20:24, 27. Mai 2017 (CEST)Beantworten
Mir gefiel die englische Syntax auch besser, aber es ist nun mal der aktuelle Stand, dass Image: und Bild: nicht mehr verwendet werden sollen, deshalb sollte man diese jetzt mal zu Grabe tragen. --Hydro (Diskussion) 20:39, 27. Mai 2017 (CEST)Beantworten
Das ist ein anderes Thema: File: in der englischen und meinetwegen Datei: (aber auch File: geht!) in der deutschen Wikipedia statt "Image" oder "Bild", was auch plausibel ist, da auf diesem Wege auch andere Dateien als Bilder eingebunden werden können - so weit in Ordnung. Die unnötige Eindeutschung von Syntax abgesehen davon steht auf einem anderen Blatt. Gestumblindi20:48, 27. Mai 2017 (CEST)Beantworten
Du scheinst das ureigenste Anliegen der wikipedia nicht zu kennen. Wissen soll für jeden abrufbar aber auch einstellbar sein. Und wenn jemand nun kein englisch kann (und ja, davon gibt's einige, mit Sicherheit mehr als die kein Deutsch können - also zumindest was die für "Deutsch" halten ... ich schweife ab), dann hätte er in dieser deutschsprachigen wikipedia ein paar Probleme, Artikel zu schreiben ;-) axpdeHallo!21:10, 27. Mai 2017 (CEST)Beantworten
Man braucht gar kein Englisch zu können, um die (englische) Syntax der Wikipedia in Kürze erlernen zu können. HTML hat man auch nie mit <Kopf> statt <head> etc. eingedeutscht und trotzdem, denke ich, haben es viele mit bescheidenen oder keinen Englischkenntnissen erlernt :-). Die Wikisyntax ist eine technische Grundlage, bei der eine Übersetzung in unzählige Sprachen überhaupt keinen Sinn ergibt. Vielmehr wird durch Einheitlichkeit die Austauschbarkeit zwischen den Sprachversionen auch bei Übersetzungen erleichtert, oder wenn man als Nicht-Muttersprachler in einer anderen Wikipedia eine Kleinigkeit korrigieren will. Gestumblindi21:34, 27. Mai 2017 (CEST)Beantworten
Ich starr gerade die Fernsteuerung meines Fernsehers (Telefunken steht drauf) an. Das steht BACK drauf, aber wie ich damit Backen soll, ist mir unklar. Und EXIT ist mir auch unbekannt. Warum auf MENU keine Ü-Punkte sind, ist mir auch unklar. Und mit der Taste LANG. kann ich wohl das Bild länger machen. V+ und V- hab ich noch nicht geschnallt, aber irgendwie hab ich doch ein Bild hinbekommen. Nein! Es muss nicht alles Deutsch sein, in der Fernsehwerbung wird mit dem Begriff "fragrance" für irgendwelchen Mief geworben. Übrigens ein Wort das ich bis dahin nicht kannte, aber Fernsehen soll angeblich ja Bildung vermitteln. Ich find "Bild" und "Datei" jedenfalls doof, es erinnert mich an eine wunderbare Übersetzung eines wohl humanistisch sehr gebildeten Germanisten, der damals in den frühen 80er Jahren ein Computerhandbuch übersetzte und dabei Begriffe wie Kartei (Directory), Datei (File), Schreibmarkenanzeiger (Cursor) und noch so einige extensiv verwendete (sorry, ist ewig her, weiß nur noch das das ein franz. Produkt, Fa. Thomson war, jedenfalls kam DOS erst danach auf den Markt). Das Handbuch war beinahe unverständlich. --Wurgl (Diskussion) 21:50, 27. Mai 2017 (CEST)Beantworten
Ich bin dagegen. Ich konvertiere bei Bearbeitungen bewußt die deutschen Bezeichnungen in englische, um es Nachnutzern aus anderen Sprachen einfacher zu machen, hiesige Bildeinbindungen in ihren Sprachversionen nachzunutzen. Habt ihr schonmal versucht, in der arabischen Wikipedia oder so eine lokalisierte Bildeinbindung zu finden? Diese Syntaxelement zu lokalisieren war die mit Abstand dümmste Maßnahme seit Beginn der Wikipedia.
Desweiteren, und da widerspreche ich mir gerne selbst, verwende ich Bild: bewußt bei der Einbindung von Lagekarten in der US-Ortsinfobox; das erleichtert mir gewisse Wartungsaufgaben und ich verbitte mir diesbezüglich eine Änderung auf Datei:. --Matthiasb – (CallMyCenter)00:00, 28. Mai 2017 (CEST)Beantworten
@FNDE: Darf ich mal fragen, wann so ungefähr "demnächst" ist? Ich hätte da auch so eine Sache mit dem Ausfüllen/Ergänzen eines Parameters bei der Vorlage Normdaten in den Biografie-Artikeln. Geht um ca. 17.000 Artikel (hochgerechnet von den ersten 500, kann also noch abweichen). Und ich hab erst ein Okay aus einem klitzekleinen Kreis (falls zwei Personen einen kreis bilden können), ich brauch also noch ein paar Tage bis es soweit ist. --Wurgl (Diskussion) 14:54, 28. Mai 2017 (CEST)Beantworten
@Wurgl: ich schätze in den nächsten 2-3 Wochen wird es soweit sein, wir haben da auch schon beim Hackathon in Wien dran gearbeitet. Klingt interessant was du sagst, da bei diesem Botlauf (meines Wissens) auch viele Personenartikel dabei sind. Wenn es nicht "zu" kompliziert ist könnte man das also mit einbauen, der besagte Botlauf soll wie ich es verstanden habe aber möglichst bald losgehen, jedenfalls wünscht sich das WMDE, damit ein Feature in der Software freigeschaltet werden kann. Mehr dazu hier: Benutzer:Michael Schönitzer (WMDE)/Sortierschlüssel. Ich schlage vor, wir schauen einfach mal wie komplex das ist, im Zweifel können wir das auch als einzelnen Botlauf machen. Beste Grüße --FNDE15:26, 28. Mai 2017 (CEST)Beantworten
Du kannst davon ausgehen, dass diese Vorlage immer in einer Zeile ist (wenn nicht einfach auslassen) und diese Nummer NDL=00931823 ist natürlich bei jedem anders.
mfb, ich sag mal so: es gibt die eine Hauptaufgabe (→ Sortierschlüssel anpassen) die mit Priorität behandelt wird. Wir haben dazu ein paar kleine Aufgaben hinzufügt, beispielsweise eindeutige Syntaxkorrekturen oder Ersetzungen. Ich könnte natürlich deine Liste mit den Job aufnehmen, allerdings sehe ich da 2 Probleme:
das wird ziemlich unübersichtlich, wenn der Bot 20-30 verschiedene Aufgaben gleichzeitig ausführt. Niemand wird sich die Mühe machen das zu prüfen, ob er vllt. nicht doch einen Fehler gemacht hat. Meiner Meinung nach sollten die Edits für normale Nutzer nachvollziehbar sein, auch über die Zusammenfassungszeile.
wir werden lediglich etwa 50.000 Artikel bearbeiten, das heißt, nicht jede zusätzliche Aufgabe wird dort Anwendung finden.
Ich habe inzwischen ein recht leistungsstarkes Framework. Wenn wir hier einen Konsens finden, dass ein Botlauf mit mehreren Syntaxkorrekturen, jeweils in einem Edit zusammengefasst, stattfinden darf, so können wir das gerne als eigenen Job planen. Beste Grüße --FNDE22:48, 31. Mai 2017 (CEST)Beantworten
Userscripte machen solche Korrekturen schon länger, aber die erreichen eben nur einen kleinen Teil der Artikel. Wenn User eine solche Bearbeitung machen dürfen, wieso sollte ein Bot das nicht dürfen? Editkommentar "x Syntax- und Formatierungsfehler korrigiert, siehe Liste" oder so. Ich finde das sogar besser als über Userscripte, denn dort werden oft inhaltliche Änderungen mit irrelevanten Syntaxänderungen gemischt, und wenn man die inhaltliche Änderung prüfen will, muss man die erst einmal suchen. Und 5 Syntaxdinge gleichzeitig zu ändern halte ich für sinnvoller als 5 getrennte Edits. Sollten eben wirklich eindeutige Sachen sein. --mfb (Diskussion) 23:18, 31. Mai 2017 (CEST)Beantworten
Ich sehe das wie du. Man wird diese Korrekturen niemals abschließen können, wenn Autoren ihre Zeit dafür opfern müssen, um solche trivialen Änderungen vorzunehmen. Ich hatte mal irgendwo gelesen, dass reine Syntaxkorrekturen unterlassen werden sollen, wenn es keine zusätzliche inhaltliche Änderung gibt. Ich würde es persönlich nicht so schlimm finden, wenn man so eine Liste mal gezielt innerhalb von ein paar Wochen abarbeitet, zumal die Botedits ja ausgeblendet werden können in der Beo. Bin wie gesagt bereit und kann das schnell umsetzen, müsste hier nur dementsprechend "erlaubt" werden. Beste Grüße --FNDE23:53, 31. Mai 2017 (CEST)Beantworten
Für's Protokoll noch einmal, da es oben offenbar übersehen wurde: Ich bin gegen die Ersetzung von "Bild:", nicht nur wegen des konkreten arbeitsökonomischen Vorteils bei der Einbindung von spezifischen Positionskarten, sondern schlichtweg, weil es nix bringt. Es ist egal und es wird bis zum Sanktnimmerleinstag egal sein, ob da Bild:, Image:, File: oder Datei: steht, das ist Softwaresyntax, die schon aus Gründen der Lesbarkeit von alten Artikelversionen nie entfernt werden wird. Also laßt es bleiben. --Matthiasb – (CallMyCenter)23:06, 16. Jun. 2017 (CEST)Beantworten
Bin mir nicht sicher, ob wir veraltete Syntax bis zum Sankt-Nimmerleinstag im Projekt haben wollen. Wenn man das einmal richtig angeht, kann die Einbindung per Bild: aus den Hilfeseiten, sodass keiner mehr auf die Idee kommt dies einzubinden. Es gibt insgesamt 4 verschiedene Bezeichnungen zur Einbindung, was an sich schon ziemlich unnötig ist, eine klare Linie wäre angebracht. Für Wartungsaufgaben sollte die alte Variante jedenfalls nicht zweckentfremdet werden, wie ich finde. --FNDE23:22, 16. Jun. 2017 (CEST)Beantworten
ob wir veraltete Syntax bis zum Sankt-Nimmerleinstag im Projekt haben wollen – das zumindest war die Aussage von Brion Vibber, als diesbezüglich Bedenken geäußert wurden, als damals die Enscheidung fiel, die Bilddaten von Image: nach File: zu verschieben. --Matthiasb – (CallMyCenter)23:41, 19. Jun. 2017 (CEST)Beantworten
Letzter Kommentar: vor 7 Jahren5 Kommentare4 Personen sind an der Diskussion beteiligt
Ich wollte fragen, ob ein Bot mit evtl. bei der Anpassung von Verlinkungen helfen könnte. Könnte bitte jemand die folgenden Verlinkungen anpassen: [[FC Gütersloh]] wird zu [[FC Gütersloh (1978)|FC Gütersloh]] und [[FC Gütersloh 2000]] wird zu [[FC Gütersloh (2000)|FC Gütersloh 2000]] Vielen Dank, wenn mir ein Bot diese Fleißarbeit abnehmen könnte. --Hullu poro (Diskussion) 13:35, 16. Jun. 2017 (CEST)Beantworten
FC Gütersloh ist 'ne BKL, und FC Gütersloh 2000 wurde von Vereinsseite umbenannt, die heißen jetzt nur noch FC Gütersloh. Klingt für mich erstmal plausibel. --FNDE14:53, 16. Jun. 2017 (CEST)Beantworten
Nein, denn die Umbenennung gilt ja nicht rückwirkend, d.h. da bleibt "FC Gütersloh 2000" ja stehen. Außerdem halte ich das ganze für vorauseilenden Gehorsam. Erstmal müßte doch der Insolvenzantrag zurückgenommen werden, bzw. die Rücknahme durch das Gericht bestätigt werden. Uns solange ist die Umbenennung auch schwebend unwirksam, wg. Insolvenzverwalter als einziges nach außen handelndes geschäftsführendes Organs ist die Vereinsführung gar nicht berechtigt, die Namensänderung zum Vereinsregister einzureichen. --Matthiasb – (CallMyCenter)15:25, 16. Jun. 2017 (CEST)Beantworten
Umstellung der Gemeindeartikel in Brasilien auf bessere Infobox
Letzter Kommentar: vor 7 Jahren11 Kommentare4 Personen sind an der Diskussion beteiligt
Schön, die ersten Umsetzungen sind eingetroffen, sieht 1:1 aus. Was ich bei den Vorgedanken zur Umsetzung nicht erwähnt hatte, war, dass neben der Umsetzung einzelner Parameternamen auch die gesamte sonstige Vorlage eingespielt wird. Ich sah das als Selbstverständlichkeit an, weil die Vorteile der neuen Infobox nur dann tragfähig sind und mir bei der Überarbeitung der alten Artikel helfen, wenn auch die leeren (nicht in Stadt in Lateinamerika vorkommenden) zusätzlichen Parameter mit eingefügt werden. So ist es nur eine intern sichtbare Kosmetik, bei der zu jedem Ort manuell die einzelnen Parameter, als Beispiel hier zum Gemeindecode oder den Regionen oder den Wirtschaftsdaten (BIP, HDI) etc., via copy/paste einzeln herübergezogen werden müssen, statt die neue Vorlage als neues Formular verwenden zu können. - Somit wäre m.M.n. ein zweiter Bot-Lauf nur für die heute vom Botlauf Betroffenen notwendig, da die Vorlage:Infobox Ort in Brasilien nicht vollständig übernommen ist. Oder? --Emeritus (Diskussion) 20:05, 29. Jun. 2017 (CEST)Beantworten
Ja, echte Umstellung auf eine andere Infobox, vgl. die alte Fassung mit der teilüberarbeiteten Fassung Ewbank da Câmara. Überarbeitung der alten Artikel funktioniert in der Art, dass ich aus dem fast parallelen Template:Info/Município do Brasil der pt:WP die aktuelleren Angaben aus pt:Ewbank da Câmara übertragen kann, wenn auch die leeren Parameter vorliegen. - Bisher war die Infobox:Stadt in Lateinamerika nur ein Ersatz für den Veraltet-Baustein; bei dem bisherigen manuellen Austausch hatte ich dann immer die Langvariante eingespielt und neu ausgefüllt. - Die leeren, noch ohne zugewiesenem Wert, bleiben nicht immer leer, weil sämtliche Orte ja weiter systematisch bearbeitet werden. - Ansonsten wäre es nur eine reine Namensänderung der Infobox, was keine großen Sinn machen würde. --Emeritus (Diskussion) 06:24, 30. Jun. 2017 (CEST)Beantworten
Nachtrag: @Quotengrote: Die "Befüllung" der Infobox in drei Stufen (IB Lateinamerika --> IB Brasilien --> dann neue Befüllung) kannst Du am Beispiel Ivoti sehen, da hattest Du ja den Belege-Baustein eingefügt, hier wäre die Langform also arbeitssparend gewesen. --Emeritus (Diskussion) 08:57, 30. Jun. 2017 (CEST)Beantworten
Ok, jetzt hab ich es verstanden, leider kann mein Bot das noch nicht, ich habe bis jetzt erstmal nur suchen/ersetzen implementiert. Da müsste vllt jemand anders ran, oder das dauert noch. Gruß -- Quotengrote (D|B) 10:19, 30. Jun. 2017 (CEST)Beantworten
CopperBot
Letzter Kommentar: vor 6 Jahren14 Kommentare7 Personen sind an der Diskussion beteiligt
Ich vermute, das hat was mit dem RC-Stream zu tun, der wurde am 7. Juli abgeschaltet. Der Betreiber ist ja schon seit 2012 inaktiv, konnte der Bot SO lange unbeaufsichtigt laufen? --FNDE15:40, 7. Jul. 2017 (CEST)Beantworten
тнояsтеn, Gerade mal nachgeschaut: der Bot nutzt tatsächlich den RC-Stream, aber die Inaktivität deckt sich genau mit der Abschaltung. Ich könnte die Aufgabe übernehmen, wenn mich ein Admin auf Tool Labs als Maintainer einträgt, sodass ich den Code sehen kann. Der Bot ist in Python geschrieben, eben so wie der von mir betriebene. --FNDE15:47, 7. Jul. 2017 (CEST)Beantworten
Ich habe dem Beitreiber mal eine Mail geschrieben. Das ist der Grund, warum der Bot noch läuft, trotz Breaking Changes vor zwei Jahren: Nicht jeder, der inaktiv scheint ist es. Mal schauen, obs eine Antwort gibt. Viele Grüße, Luke08151515:56, 7. Jul. 2017 (CEST)Beantworten
Hey Mabschaaf, aktuell gerade nicht, habe gerade im RL einiges zu tun. Wie versprochen würde ich mich der Sache annehmen (falls sich niemand findet der sofort einspringt), aber realistisch erst zum Ende des Jahres damit anfangen. --FNDE13:03, 12. Nov. 2017 (CET)Beantworten
Letzter Kommentar: vor 6 Jahren9 Kommentare3 Personen sind an der Diskussion beteiligt
Liebe KollegInnen,
in der Frage ob Vorlage:Hauptseite Aktuelles in der Vergangenheit zu viel Sport-Themen präsentiert hat (s. Vorlage Diskussion:Hauptseite Aktuelles#„Sport-Wikipedia“), wollte ich nachfragen, ob es nicht eine Möglichkeit gibt, die neu ergänzten Artikel pro Edit (Berichtszeit: Jan–Jun 2017) für die Vorlage automatisiert herauszuziehen und vielleicht monatlich für weitere Auswertungen in eine Excel-Datei o. ä. zu sammeln (rein stilistische oder Rechtschreibkorrekturen sollten nicht mit aufgenommen werden). Bis jetzt habe ich das händisch gemacht, es ist aber ein großer zeitlicher Aufwand und ich bin erst mit dem Januar 2017 durch. Frage ist auch, ob man z. B. eine Statistik der Verweildauer jedes Artikels kreieren könnte, wie in der Diskussion von Happolati gefordert (manuell ist das zu aufwendig und wahrscheinlich auch fehleranfällig). Danke im Voraus und viele Grüße, --César (Diskussion) 10:06, 11. Jul. 2017 (CEST)Beantworten
Hi César, versteh ich das richtig: soll die Vorlage:Hauptseite Aktuelles daraufhin untersucht werden, wie lange eine Nachrichtenzeile jeweils in der Vorlage besteht? Sortierung nach Sportthemen dürfte kompliziert sein für einen Algorithmus, reicht euch daher die einfache Auflistung der jeweiligen Themen mit der dazugehörigen Verweildauer? CC: Benutzer:Happolati --FNDE15:46, 11. Jul. 2017 (CEST)Beantworten
Hi und danke fürs CC. Ich habe technisch nicht viel Ahnung davon, was möglich ist, aber eine Auflistung der Themen/Stichwörter/Links mit der längsten Verweildauer auf der HS wäre für unsere Diskussion interessant. Danke für deine Mühe! Gruß --Happolati (Diskussion) 18:02, 11. Jul. 2017 (CEST)Beantworten
Hallo FNDE,
das wäre toll. Könnte man so etwas monatlich für Januar bis Juni 2017 machen, für Stichwörter und Textmeldungen? Und vielleicht nochmal zusammengerechnet für das Halbjahr? Viele Grüße, --César (Diskussion) 19:30, 11. Jul. 2017 (CEST)Beantworten
ich wollte mal nachfragen, ob sich schon absehen lässt, ob du solche Listen bereitstellen könntest. Oder müsste das doch händisch gemacht werden? Viele Grüße, --César (Diskussion) 10:41, 23. Jul. 2017 (CEST)Beantworten
Hey César, ich würde mich mal die Woche da ran setzen. Aber nochmal eine Nachfrage: werden die einzelnen Zeilen nicht ohnehin jeden Tag ausgetauscht? Wenn dem so ist, hat jedes Stichwort doch eine "Maximallaufzeit" von einem Tag. Wie gesagt, automatisch nach Themen zu unterscheiden ist schwierig. Beste Grüße -- FNDE18:27, 23. Jul. 2017 (CEST)Beantworten
Moin. Das kann man nicht so pauschal sagen, FNDE. Es ist sehr unterschiedlich – je nachdem, ob aktualisierte Artikel vorliegen. Mal bleibt eine Textmeldung oder Stichwort mehrere Tage stehen, mal ein paar Stunden. Grüße, --César (Diskussion) 08:18, 24. Jul. 2017 (CEST)Beantworten
César, ich würde das dann wie folgt machen: wir gehen jede einzelne Version durch, berücksichtigt werden nur die Stichwörter bzw. deren Linkziel. Wenn dann der Beschreibungstext eines Links geändert wird bleibt die Zählung weiterhin aktiv, nur beim kompletten Austausch des Links wird dann die Zeit unterbrochen. Wäre das so in eurem Sinne? Beste Grüße --FNDE13:47, 24. Jul. 2017 (CEST)Beantworten
Ich denke, das würde passen. Probiere mal Dein Glück mit Januar bis Juni 2017. Ich habe für den Januar schon eine separate Liste händisch erstellt gehabt, die ich zur Überprüfung nutzen könnte. --César (Diskussion) 14:01, 24. Jul. 2017 (CEST)Beantworten
Umstellung von Archivlinks auf Vorlage:Webarchiv
Letzter Kommentar: vor 6 Jahren8 Kommentare4 Personen sind an der Diskussion beteiligt
@Leyo: Vermutlich gehts dabei um eine fortlaufende Prüfung/Ersetzung? Kannst du einen Suchstring vorgeben worum es konkret geht? Schöne Grüße --FNDE00:39, 10. Aug. 2017 (CEST)Beantworten
Diese Automatisierung ist mit AWB allerdings nicht so einfach umsetzen. Aus diesem Grund wollte ich fragen, ob hier jemand diese Aufgabe automatisieren könnte. Das wäre eine große Hilfe! Vielen Dank und beste Grüße, --Soluvo (Diskussion) 21:35, 16. Aug. 2017 (CEST)Beantworten
Timeoutfehler. Ich lasse mal meine Version laufen, hatte gestern schon die ersten Gehversuche. Mal sehen ob ich Kontakt zur Gegenstelle habe. @xqt12:57, 4. Okt. 2017 (CEST)Beantworten
@Xqt: Unmaintenanced Bots werden üblicherweise doch gesperrt. Ich hab es die letzten Jahre öfter schon probiert, den Bot owner zu kontakten, aber kein Erfolg. Es ist ja schließlich nicht das erste Mal, dass der Bot nicht richtig oder gar nicht funktioniert. – Doc Taxon • Disk. • WikiMUC • Wikiliebe?! • 03:03, 6. Okt. 2017 (CEST)Beantworten
Dieser Botauftrag wird gerade von TaxonBota (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).
Liste der halbherzig beendeten Redundanzdiskussionen
Letzter Kommentar: vor 6 Jahren7 Kommentare2 Personen sind an der Diskussion beteiligt
Redundanzdiskussionen werden teils halbherzig beendet, indem in einem oder mehreren betreffenden Artikeln der Redundanzbaustein entfernt wird, die Redundanzdiskussion (oder die -diskussionen) nicht beendet wurden (nicht per erledigt ins Archiv verschoben wurden). Ich hätte gerne eine Liste von Redundanzdiskussionen (mit Link), die
Ich kann das prinzipiell schon machen, durch diesen Auftrag habe ich eh eine Datenbank mit allen betroffenen Artikeln und dem zugehörigen Status der Diskussion. Das müsste sich durch einen mehr oder weniger einfachen Query gegen die Wiki-Datenbank lösen lassen. Ich weiß allerdings gerade nicht, wann ich dazu kommen werde. Sollte aber schneller gehen wie das oben.
Bald ja, eine genaue Aussage kann ich aufgrund diverser Aufgaben im Offwiki-Bereich aber gerade nicht abgeben. Als Hausnummer ohne Gewähr, in den nächsten anderthalb Wochen. LG -- Jogo.obb (Diskussion) 17:53, 26. Sep. 2017 (CEST)Beantworten
ich muss mich mal wieder für meine zeitlichen Schwierigkeiten entschuldigen, aber schöne Veränderungen im Leben außerhalb der Wikipedia haben die Zeit die ich für solche Aktionen habe etwas eingeschränkt.
Erledigt ist dieser konkrete Fall weil sich dieser Hurrikan mittlerweile in Luft aufgelöst hat. Erledigt ist allgemein aber nichts weil ..zig analoge Dateiserien ebenfalls darauf warten automatisch auf commons geladen zu werden. --itu (Disk) 10:00, 7. Okt. 2017 (CEST)Beantworten
Na in diesem Fall wären es alle anderen Hurrikan für die nach gleichem Schema Karten produziert werden.
Klarerweise sind Ereignisse mit WP-Artikeln besonders vordringlich, siehe auch meine Anfrage weiter oben.
Man sollte zumindest einen Knopf bereitstellen auf den jeder beliebige Benutzer drücken kann, damit die Seiten/URLs von einem Bot gepollt werden und zeitnah, automatisch und systematisch und frei von Fehlern wie sie bei manueller Mühsal auftreten, nach commons hochgeladen werden. --itu (Disk) 21:31, 7. Okt. 2017 (CEST)Beantworten
Also konkret ist bei den Hurrikans die Metaseite http://www.nhc.noaa.gov/ und von dieser Seite http://www.nhc.noaa.gov/graphics_at1.shtml?cone#contents aus kann sich der Bot die Diagramme für den jetzt aktuellen Hurrikan dann jeweils recht leicht rausziehen. Wobei der startende Benutzer diese URL erstmal auch dem Bot übergeben kann.
Ich kann übrigens sehr gerne die Parserei übernehmen (in shellskript, was anderes kann ich jetzt leider nicht), nur das Interface zum automatisierten Hochladen müsste jemand anderes übernehmen, das weiss ich leider nicht wie das geht bzw. habe mich dahin noch nicht durchgekämpft. --itu (Disk) 21:56, 7. Okt. 2017 (CEST)Beantworten
Auswertung Vorlagenparameter
Letzter Kommentar: vor 6 Jahren16 Kommentare5 Personen sind an der Diskussion beteiligt
Hallo! Könnte mir jemand alle Artikel listen, in denen in {{Charteintrag}} der Parameter Farbe auf irgendetwas anderes als 1 gesetzt wurde (inklusive leer)? Nach der jüngsten Lua-Umstellung könnten die Fälle Probleme machen … –XanonymusX (Diskussion) 23:32, 19. Okt. 2017 (CEST)Beantworten
Bei Vorlagenparametern kannst mich auch (direkt) fragen. Ich muss halt SQL tippen. Die 13 passen übrigens. 912 Einbindungen mit dem Parameter Farbe sind es insgesamt. --Wurgl (Diskussion) 01:14, 20. Okt. 2017 (CEST)Beantworten
Altes Erbstück von Apper. Da werden einfach alle Vorlagen geparst und zerdröselt in eine private Datenbank geschrieben. Okay, nicht ganz alle. Nur die im ANR. --Wurgl (Diskussion) 09:12, 20. Okt. 2017 (CEST)Beantworten
10 Minuten plus ein paar zerquetschte an Laufzeit vom Script. So oft wird der cronjob gestartet. Auch Erbstück (nur bei gelöschten und verschobenen kann es schon mal 2-3 Tage dauern bis die wieder draußen sind). --Wurgl (Diskussion) 10:18, 20. Okt. 2017 (CEST)Beantworten
Es gibt kein Web- oder anderes Interface. Ich müsste da was basteln, aber das ist hart an der Grenze meines Könnens. Ich hab ganz einfach noch nie viel mit Webinterfaces gemacht, vorhandenes Anpassen ist kein Problem, aber von 0 auf 100 … uaaahhhhh! Auf freundliche Anfrage hin kann ich was auswerten. Hab ich auch bei Septembermorgen mit den franz. Gemeinden gemacht. --Wurgl (Diskussion) 00:35, 17. Jan. 2018 (CET)Beantworten
Jupp! s51412__data nennt sich die Datenbank. Keine Ahnung wer da Zugriff hat, ist eben Erbstück. dewiki_templatedata und dewiki_templatedata_pages sind die beiden interessanten Tabellen. Ich wanke jetzt aber Richtung Furzkuhle, weitere Antworten gibts als erst nach dem Kaffee :-) --Wurgl (Diskussion) 00:55, 17. Jan. 2018 (CET)Beantworten
Danke, das ist klasse. Ich habe sie auf der tools-DB gefunden. Nur kann ich auf die Tabellen nicht zugreifen, aber ein grant select, show view on `s51412__data`.* to '%'@'%'; soll das wohl beheben (bzw. ein Umbenennen der DB in s51412__data_p, aber das könnte sich schwieriger gestalten). – Giftpflanze01:12, 17. Jan. 2018 (CET)Beantworten
ERROR 1410 (42000): You are not allowed to create a user with GRANT Sogar die Grant-Syntax nachgelesen (braucht man ja sooooo oft), kommt immer die selbe Meldung. Das Ding in _p oder so umwandeln … die Datenbank ist sehr groß, so groß dass die kein Backup/keinen Dump davon machen … also das wird wohl nichts. --Wurgl (Diskussion) 08:06, 17. Jan. 2018 (CET)Beantworten
GRANT ALL PRIVILEGES ON `s51412__%`.* TO 's51412'@'%' WITH GRANT OPTION Das kommt bei show grants; raus. Die weiteren Zeilen beziehen sich dann auf andere Elemente anderer Datenbanken. Ich sollte also dürfen, eigentlich. Hmm. --Wurgl (Diskussion) 08:32, 17. Jan. 2018 (CET)Beantworten
PNG-Fotos
Letzter Kommentar: vor 6 Jahren5 Kommentare2 Personen sind an der Diskussion beteiligt
Mit Schrecken habe ich festgestellt, dass etliche PNG-Fotos in Artikel eingebunden sind, beispielsweise hastemplate:Infobox_Fußballspieler insource:/bildname *=.{3,30}\.(png|PNG)/. Aufgrund der mangelhaften Thumb-Qualität (Schärfe) sollten diese ins JPEG-Format konvertiert werden. Kann jemand aus obigen Treffern eine Tabelle mit folgenden Spalten erstellen:
Artikel
Bild (eingebunden)
Commons-Kategorie (falls vorhanden; zur Überprüfung auf bessere Alternativbilder)
Letzter Kommentar: vor 6 Jahren12 Kommentare6 Personen sind an der Diskussion beteiligt
Ich habe soeben die Tabelle unter Simferopol entdeckt und mich gerade in die Internet-Steinzeit zurückversetzt gefühlt. Könnten solche unschönen Tabellen jeweils per Bot in eine Wikitable umgewandelt werden? --Leyo11:31, 13. Dez. 2017 (CET)Beantworten
Als jemand, der ab und zu mal Tabellensyntax feinschleift, wage ich zu behaupten, dass diese zu komplex ist, um automatisiert weitreichende Änderungen daran vornehmen zu können. Gruß, -- hgzh18:48, 15. Dez. 2017 (CET)Beantworten
Das sind kosmetische Änderungen, sollten von einem Bot also nur in Verbindung mit inhaltlichen Änderungen vorgenommen werden. Ich würde das in diesem Fall aber nicht vollautomatisch durchlaufen lassen - lässt sich schwer überblicken, welchen Impact das am Ende hat. --FNDE18:16, 29. Dez. 2017 (CET)Beantworten
Dein erster Satz beruht auf einem Missverständnis: Die von mir vorgeschlagenen Umwandlungen bewirken sehr wohl eine sichtbare Änderung in den betreffenden Artikeln. --Leyo02:19, 30. Dez. 2017 (CET)Beantworten
Ergänzend zu den von FNDE genannten Zweieln hinsichtlich des Impacts ist auch das Problem, daß solche Steinzeittabellen eigentlich längst durch Infoboxen oder ähnliche Vorlagen ersetzt, aber aus irgendwelchen Gründen vergessen/übersehen wurden, etwa weil einst Baustelle im BNR oder so. So finde ich auch heute noch hin und wieder einen Schlachtartikel, in der trotz der berühmt-berüchtigten Löschung und Wiederherstellung der Vorlage:Infobox Militärischer Konflikt noch solche Steinzeittabellen enthalten sind. Das zu erkennen ist nicht trivial. Ich weiß nicht, wie allgemein in Ukraine/Rußland verfahren wird, aber in vielen Ländern werden die Bevölkerungsvorlagen Vorlage:USCensusPop oder Vorlage:Démographie "mißbraucht" ("mißbraucht", weil diese eigentlich für die USA bzw. Frankreich vorgesehen waren, aber letztlich funktionieren sie auch anderswo). --Matthiasb – (CallMyCenter)04:55, 30. Dez. 2017 (CET)Beantworten
Ich könnte anbieten erstmal eine Wartungsliste zu erstellen, dann könnte man erstmal schauen, ob der Botlauf sinnvoll ist. Wenn nicht, könnte man sich manuell ans Werk machen. Viele Grüße --FNDE12:46, 8. Jan. 2018 (CET)Beantworten
1. Ändere/Ergänze "Intercomm-Infobox" in der "Infobox Gemeinde in Frankreich" (Parameter intercomm)
2. Löschen der "Navigationsleiste Kommunalverband" (Kann auch in einem Naviblock stehen, wenn dann nur eine Navileiste übrig bleibt, sollte der Naviblock aufgelöst werden), wenn eine 1 im der Spalte "Vorlage Kommunalverband löschen" steht.
3. Ändere "Intercomm" im Fließtext. Der neun einzufügende Wikilink steht in der Spalte "Intercomm-Text ersetzen ". Bei Bedarf kann ich auch die ganzen Sätze noch in der Liste ergänzen, in denen der zu ersetzende Wikilink drin steht, ansonsten ist der Link immer der alte Eintrag im Parameter intercomm der Infobox Gemeinde in Frankreich.
Letzter Kommentar: vor 6 Jahren8 Kommentare4 Personen sind an der Diskussion beteiligt
Im Zuge einer Löschdiskussion sowie einer verbundenen Diskussion im Portal Recht steht zur Debatte, die bisher getrennt geführten Lemmata Rechtswissenschaft und Rechtswissenschaften zusammenzuführen und die ca. 8.000 Wikilinks per Bot von [[Rechtswissenschaften]] durch [[Rechtswissenschaft]]en zu ersetzen. Ich hatte im Zuge der dortigen Diskussion auch dargelegt, daß die Verwendung beider Varianten u.a. landes- und bundeslandabhängig ist. Das Bot-Script würde bei der Änderung des unterlegten Wikilinks auch nichts an der Variantenvielfalt ändern, auch nehmen wir (bezugnehmend auf Intro 7 für Anfragende) keine Verschiebung, sondern eine Löschung eines Lemmas vor. Ziel ist klar: daß unter dem Ziellemma nicht die Zeile "weitergeleitet von" aufscheint. Ziellemma hat durchschnittlich 440 Aufrufe pro Tag (Pegelspitzen vom 09. Februar rühren von der LD her). Ist da was möglich? Laufzeit des Bots wäre (bei vorschriftsmäßigen 5 Edits/Minute) ca. 27 Stunden. Ich hatte bisher Cactus26 mit seinem CactusBot angepingt. -- Uwe Martens (Diskussion) 04:46, 14. Feb. 2018 (CET)Beantworten
Hier liegt kein "zwingend zu löschender Redirekt" vor, sodaß ein Botlauf regelwidrig gemäß Nr. 7 des Intros ist. Denn als Weiterleitung bliebe Rechtswissenschaften jedenfalls erhalten (WL vom Plural auf Singular). Das habe ich dir aber auch schon auf der Portalseite erklärt, zumal in der Frage alles andere als ein Konsens vorliegt. Stelle also bitte nicht eigenmächtig irgendwelche Botanträge. --Matthiasb – (CallMyCenter)05:25, 14. Feb. 2018 (CET)Beantworten
Man könnte bestenfalls (und wohl auch nur zur Prüfung des Punkt 7) darüber erörtern, ob ein Löschen eines Lemmas mit manuellem Setzen einer Weiterleitung einer Verschiebung gleichkäme oder nicht. Technisch ist es klar nicht das gleiche. Wenn man Punkt 7.1 für sich alleine betrachtet mit "umgebogen werden können Verweise auf zwingend zu löschende Weiterleitungen", so kann man das bei "gesetzesmäßiger" Auslegung auch nicht als Ausschlußkriterium für unser Anliegen nehmen (sonst müßte es heißen "umgebogen werden können ausschließlich"). Die Intention "vom jeweiligen Autor mglw. bewußt getroffener Entscheidungen, wie (wohin) ein bestimmter Link gesetzt wird" wäre auch einzelfallbezogen zu bewerten - in diesem Fall wäre dieser Intention jedenfalls das Vorliegen zweier getrennter Lemmata zugrundegelegen (was dann ja nicht mehr der Fall ist). Zudem habe ich hier eindeutig eine Anfrage zur Machbarkeit, nicht zur Durchführung gestellt! -- Uwe Martens (Diskussion) 06:04, 14. Feb. 2018 (CET)Beantworten
Unabhängig von den inhaltlichen Aspekten: Gebräuchlich(!) in Literatur und Umgangssprache sind in jedem Fall Singular und Plural. Ergibt die Sachdiskussion eine inhaltliche Gleichheit, werden die Artikel zusammengeführt. Der "sachlich kleinere" Begriff bleibt aber in jedem Fall als Redirect. Der Botlauf ist überflüssig. --He3nryDisk.06:16, 14. Feb. 2018 (CET)Beantworten
Was den allgemeinen Sprachgebrauch angehen, sind die Damen und Herren Juristen nicht allein entscheidungsfähig, die entscheiden, ob es ein Begriff ist oder nicht. Und in dem Difflink ist ein Redirect erwähnt = Bot unnötig, --He3nryDisk.06:26, 14. Feb. 2018 (CET)Beantworten
Die Entscheidung der Verantwortlichen dieses Portals (die ja Regeln hier definieren und auslegen), sind für uns verbindlich. Wenn die regelkonforme Machbarkeit geklärt und bejaht ist, kann man es überhaupt erst als Option zur Diskussion stellen. Andere "Meinungen", bis dato zwei an der Zahl, kann ich zur Kenntnis nehmen, muß ich aber kaum als verbindlich ansehen. Der Zweck, nicht 8.000 Weiterleitungen von einem gelöschten Lemma zu generieren, ist ja wohl sinnvoller Art. -- Uwe Martens (Diskussion) 15:07, 14. Feb. 2018 (CET)Beantworten
Falsches Datumsformat
Letzter Kommentar: vor 6 Jahren3 Kommentare2 Personen sind an der Diskussion beteiligt
Hi Phzh, ich könnte mir vorstellen, mich darum zu kümmern. Hab mich auch schon auf die Suche gemacht nach dem Skript was ursprünglich verwendet wurde – leider ohne Ergebnis. Ein paar grundlegende Fragen dazu:
wie oft wurde die Liste aktualisiert? Immer wenns einen neuen Dump gab?
Meines Wissen wurde die Liste immer, wenn es einen neuen Dump gab, aktualisiert.
Alle Artikel, die vermutlich ein Datum der Form TT.MM.JJJJ, TT.MM.JJ, JJJJ-MM-TT, 0T. Monat oder ähnliches enthalten. Auch teilverlinkte Daten wie TT.MM.[[JJJJ]] und [[TT. MM.]] [[JJJJ]] wurden erkannt. Folgendes sollte ignoriert werden: Web-URLs, Bild- und Medien-Dateinamen (.jpg, .svg, .ogg usw.), Tabellenspalten und Vorlagenparameter, die mit einem Datum beginnen oder enden, Chartboxen, Vorlage:PND, Titelparameter in gängigen Vorlagen, zitierten Text in den Zitiervorlagen, auskommentierte Textpassagen (siehe auch WP:FDF).
(Seiten)Index für Portale anhand von Kategorien erstellen und aktualisieren (Merlbot-Ersatz)
Letzter Kommentar: vor 6 Jahren9 Kommentare5 Personen sind an der Diskussion beteiligt
Hallo, aufgrund einer Diskussion im Jahr 2009 (Automatische Index-Erstellung) übernahm Merlissimo mit seinem MerlBot den Job von Benutzer:Srbauer und seinem SrbBot, Indexe für Portale bzw. Projekte zu erstellen.
Diese wurden dann regelmäßig aktualisiert. Bis Dezember 2011, dann gab es eine Datenbankänderungen bzw. API-Änderung (Rückfrage und Antwort bei Merlissimo: bei Merlissimo zum Portal Marxismus), der keinen Ersatz dafür hatte)
Seitdem stehen sie auf diesem Stand. Zusatznutzen: Die Disk.-Seiten und etwaige Weiterleitungen waren mit verlinkt. Kann sich jemand vorstellen, das zu übernehmen? --emhad℩b21:23, 28. Feb. 2018 (CET)Beantworten
@Doc Taxon: ja, ganz genau. Was müssen die anderen Portale tun, um auch in den Genuss der Aktualisierungen durch Deinen Bot zu kommen? Gibt es irgendwo eine Dokumentation? Für Mittelhessen bitte ich natürlich um Aktualisierung, würdest Du das für die o.g. Fälle auch automatisch übernehmen? Viele Grüße, --emhad℩b02:10, 13. Mär. 2018 (CET)Beantworten
Doc Taxon: ich habe den anderen o.g. Portalen / Projekten via Diskussionsseite Bescheid gegeben. Wie finde ich heraus, ob es weitere Indexe/Themenlisten gibt/gab? Hat da jemand eine Idee? Viele Grüße, --emhad℩b18:36, 20. Mär. 2018 (CET)Beantworten
Letzter Kommentar: vor 6 Jahren5 Kommentare3 Personen sind an der Diskussion beteiligt
Ich stoße ständig auf Artikel, bei denen der Commonscat-Link fehlt, und dass obwohl Artikel und Commonscat identisch benannt sind. Wäre es sinnvoll und möglich da eine Arbeitsliste per Bot anzulegen? Folgendes schwebt mir vor: 1. Auflistung aller Artikel, die keinen Commonscat-Link haben und zu denen es eine gleichlautenden Commonscat gibt. 2. Auflistung aller Artikel die keinen Commonscat-Link haben (wo es keine gleichnamige Commonscat gibt), bei denen aber eine andere Sprachversion auf eine Commonscat verlinkt und Angabe der dort verlinkten Commonscat. Kann man so etwas machen, und wäre es auch sinnvoll? -- Lord van Tasm«₪»‣P:MB22:04, 28. Feb. 2018 (CET)Beantworten
Ich denke nicht, dass das sinnvoll ist. Allein mit dem Anfangsbuchstaben 'A' sind das 30.499 Seiten (ohne Weiterleitungen). In der linken Spalte auf der Seite ist ja ein Commonslink (wenn auf Wikidata eingetragen) angegeben. Ja, ich weiß, dass das bei Mobilgeräten wie Smartphones Probleme macht, aber dann sollte eben das Seitenlayout besser gestaltet werden, anstatt überall redundante Links reinzudrücken. Dagegen ist es m. E. sinnvoll, die Seiten rauszufischen, die nicht über Wikidata mit gleichnamigen Commons-Kategorien oder -Galerien verknüpft sind. --Achim (Diskussion) 15:56, 2. Mär. 2018 (CET)Beantworten
Letzter Kommentar: vor 6 Jahren3 Kommentare2 Personen sind an der Diskussion beteiligt
Ich habe gerade in einem viel gelesenen Artikel falsch formatierte einfache Anführungszeichen korrigiert. Könnte Ähnliches in anderen Artikeln per Bot korrigiert werden? Mittels insource:/ ,[A-Za-z]+'[^']/ findet man nicht alle, speziell nur diejenigen Vorkommen mit einem einzelnen Wort in Anführungszeichen. --Leyo14:50, 7. Mär. 2018 (CET)Beantworten
Letzter Kommentar: vor 6 Jahren8 Kommentare6 Personen sind an der Diskussion beteiligt
Durch Zufall bin ich auf dieser Seite gelandet: Lenindenkmale in Russland. Dort sind ca. hundert Fotos verlinkt. Davon wurden einige per archiv.org überprüft. Es gibt die Fotos also noch. Kann ein bot die jeweils älteste Version (noch ohne Hinweis auf Abschaltung) verlinken?
Tja, das Problem wurde bereits 2017 angesprochen, damals funktionierten die Links allerdings noch. Damals hat das aber noch niemanden so richtig interessiert. Jetzt ist der Salat mit den toten Links da. 129.13.72.19709:48, 19. Mär. 2018 (CET)Beantworten
Viele tausend Panoramio-Bilder mit kompatibler Lizenz wurden nach Commons übertragen und wären nun, anstelle einer Verlinkung, hier direkt in Artkel einbindbar. Die ursprünglichen URLs sind auf Commons in den Dateibeschreibungsseiten angegeben (jedoch die dort nachträglich per Bot erfolgte Änderung "http" zu "https" beachten) (Beispielbild). Ein Bot könnte nun auf Commons nach unseren Panoramio-Links bzw. den Panoramio-Fotonummern suchen. Seine Ergebnisse könnte er hier z. B. auf der jeweiligen Artikeldisk ausgeben zur weiteren Überprüfung, ob eine direkte Bildeinbindung oder nur eine Linkanpassung nach Commons angebracht ist. Wenn sich die Zahl der Treffer in Grenzen hält, wäre auch eine Gesamtliste sinnvoll. Anderes mögliches Vorgehen: Der Bot biegt hier automatisch Links nach Commons um und hinterlässt in der Zusammenfassung einen Hinweis auf mögliche Direkteinbindung als Bild. Disclaimer: Nur ein Teil der Panoramiobilder hatte freie Lizenzen, wie groß die Schnittmenge mit unseren Links ist, kann ich nicht sagen. --Sitacuisses (Diskussion) 05:18, 29. Mär. 2018 (CEST)Beantworten
Entfernen defekter Originallinks nach {{Webarchiv}}-Einbindung
Letzter Kommentar: vor 6 Jahren2 Kommentare2 Personen sind an der Diskussion beteiligt
In einer ganzen Reihe von Artikeln (mehrere hundert) gibt es Einzelnachweise, in denen die folgende Konstruktion genutzt wird:
{{Webarchiv | url=http://www-pub.iaea.org/MTCD/publications/PDF/OPEX_2010_CD_web/PDF/OPEX_2010.pdf | webciteID=61tRdHT8n | text=''IAEA – jährlicher Report zu Kernkraftwerken in Mitgliedsstaaten''}} (pdf). IAEO, archiviert vom [http://www-pub.iaea.org/MTCD/publications/PDF/OPEX_2010_CD_web/PDF/OPEX_2010.pdf Original] (PDF; 20,3 MB), abgerufen am 22. September 2011.
Ursache dafür ist, dass {{Webarchiv}} bis vor einigen Tagen den Originallink nicht angezeigt hat (so wie es z.B. {{Internetquelle}} schon seit geraumer Zeit tut). Zum einen führt das jetzt zu dem unschönen folgenden Resultat:
Zum anderen steht auf diese Weise natürlich ein als defekt bekannter Weblink dauerhaft im Artikel und wird von danach suchenden Bots gefunden, so auch vom jüngst gestarteten InternetArchiveBot, der pflichtbewusst die „Original“-Links repariert.
Für die Weblinkwartung wäre es ungemein hilfreich, diese händischen Originalverlinken würden entfernt. Das sollte ein semi-automatischer Bot gut erledigen können. Konkret müssen alle „archiviert vom Original“-Texte entfernt werden, die unmittelbar auf {{Webarchiv}} folgen. Martina und ich würden uns freuen, wenn ein Regex-Experte diese Aufgabe übernehmen könnte.--Cirdan±21:27, 24. Mär. 2018 (CET)Beantworten
Letzter Kommentar: vor 6 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Ich habe gerade in einem Artikel einen Link auf Wiktionary nachgetragen (Majestät), offensichtlich ist die Verlinkung nicht flächendeckend gegeben. Meine Idee wäre: Artikelliste aus Wiktionary holen, mit der Liste in WP abgleichen und überall dort unter Weblinks einen Baustein setzen, wo das Sinn macht. Leider habe ich keinen Bot... --2003:D3:A3F3:BB84:18AA:F72B:62BD:BF4B14:54, 29. Mär. 2018 (CEST)Beantworten
Letzter Kommentar: vor 6 Jahren45 Kommentare9 Personen sind an der Diskussion beteiligt
Hallo, ich würde es als sehr sinnvoll erachten, wenn wir einen Bot damit beauftragen, externe Links von HTTP zu HTTPS umzustellen. Das kommt natürlich nur für vorher geprüfte Websites in Frage.
Gemeint ist wohl, dass jeweils eine bestimmte, von uns häufig im ANR referenzierte Domain auch tatsächlich HTTPS mit brauchbarem Zertifikat unterstützt.
Ist eine sinnvolle Aufgabe, da sie Kommunikationsbelauschern das Leben schwermacht, wenn die erste Kontaktierung von der Wiki-Seite aus bereits mit HTTPS erfolgt.
Aus den frühen Jahren der deWP gibt es bestimmt eine Reihe relevanter Domains, die dem damaligen Artikelbearbeiter nur per HTTP erreichbar waren, heutzutage jedoch HTTPS können. Kann in die Zigtausende von Artikeln gehen.
So von der ersten Einschätzung her hätte ich dann ein Skript zusammengeschraubt, das alle Artikel nach und nach durchgeht, mit geringer Frequenz, und dort alle Domains die verlinkt sind rauspickt. Diese würde dann von der Automatik auf https geprüft (sofern sie das nicht schon sind), also ob ein Cert da ist, ob es noch valid ist, und der CN auch stimmt. Würde der Check positiv sein, würde der Bot dann in einem Edit alle auf https umbügeln, die das eben können. Den Job könnte man einmal laufen lassen, und dann in regelmäßigen Abständen wieder. Spricht da was dagegen, @Soluvo, PerfektesChaos:? Viele Grüße, Luke08151515:27, 2. Apr. 2018 (CEST)Beantworten
Naja, a) Werden ja nicht alle ersetzt, b) ersetze ich so viele wie möglich in einem Edit. Mit geringer Frequenz meine ich schon mindestens ein Edit jede Minute. ;) Viele Grüße, Luke08151515:35, 2. Apr. 2018 (CEST)Beantworten
Ich vermute, gemeint war eine konkrete Benennung bestimmter Domains, und dann Abarbeitung aller Artikel, in der eine oder mehrere dieser Domains in HTTP vorkämen.
Dabei kann die Zertifizierungsqualität für eine begrenzte Liste von Domains auch manuell vorgeprüft werden.
Sollte schon politisch-medizinisch-juristisch-allgemeinauskunftig relevante Domains umfassen; die Touristeninfo von Posemuckel mag ja auch auf dem HTTPS-Server der Landkreisverwaltung sitzen, aber deswegen müssen wir nicht gleich den Artikel umbauen.
Danke für Eure Antworten. @Luke: Ja, das kannst Du gerne übernehmen. Mit Prüfung meine ich, wie PerfektesChaos richtig schreibt, eine vorherige manuelle Überprüfung der Zieldomain, ob diese tatsächlich ein funktionsfähiges SSL-Zertifikat besitzt.
Beispielsweise wurden kürzlich die Websites von Stern und Focus Online mit HTTPS verschlüsselt.
Bei Focus das gleiche und jetzt ebenfalls unter https://www.focus.de erreichbar. Auch hier kann umgestellt werden.
Wenn man aber ohne Prüfung bspw. http://www.faz.net auf https://www.faz.net ändern würde, stellt man fest, dass die FAZ ihre Website leider noch nicht verschlüsselt hat.
--> Vorher prüfen, ob die Seite überhaupt verschlüsselt ist und ob alles funktioniert.
Noch ein paar allgemeine Dinge:
Ich denke, dass vor allem die Domains bei der Umstellung priorisiert werden sollten, die am häufigsten verwendet werden (z.B. in den Einzelnachweisen). Dazu dürften u.a. die Websites von Zeitungen, etc. zählen.
Zusammenfassung: Weil (leider) nicht jede Website HTTPS unterstützt, können wir nicht einfach in der ganzen deWP jedes "http://" durch ein "https://" ersetzen. --Soluvo (Diskussion) 18:04, 2. Apr. 2018 (CEST)Beantworten
@Wurgl: Danke dafür! Ich habe die Quarry-Seite geöffnet und sehen den SQL-Code, kann die Abfrage aber nicht ausführen. Ist das normal so? Wie kann man den Code ausführen lassen? --Soluvo (Diskussion) 08:41, 4. Apr. 2018 (CEST)Beantworten
Hab Geduld. Die rödelt irgendwo und plötzlich kommen die Daten, so 1 Minute oder zwei warten. Es sind wohl noch die Daten als ich die gestern gestartet habe, vor meiner Umstellung der Normdaten. Allerdings sind die noch nicht alle in der Datenbank. Von 8.124.471 http-Links kurz nach meinen ersten Umstellungen ist der Zähler vor so einer Stunde auf 7.649.284. Sind aber grob 900.000 http-Links die da verschwinden müssten, daher ist ein neuer Start nicht so sinnvoll – das Ding rödelt eben noch. Ansonsten: Du brauchst dort einen Account, dann kannst die Abfrage mit "fork" duplizieren und in deinem Duplikat dann herumfuhrwerken. PS: books.google.de und ssd.jpl.nasa.go hab ich in den Vorlagen bereits umgestellt, die großen Brummer dispatch.opac.d-nb.de und zdb-katalog.de gehen nicht. --Wurgl (Diskussion) 09:14, 4. Apr. 2018 (CEST)Beantworten
@Wurgl: Stimmt, man muss einfach ein bisschen warten. Jetzt funktionierts. Soll ich die Deutsche Nationalbibliothek (dispatch.opac.d-nb.de) oder die Zeitschriftendatenbank (zdb-katalog.de) mal kontaktieren, z.B. per E-Mail oder Telefon? Vielleicht bringt es ja etwas. Wenn du noch andere Seiten/ Unternehmen hast, bei denen ich mich mal melden soll, sag gerne Bescheid. --Soluvo (Diskussion) 11:05, 4. Apr. 2018 (CEST)Beantworten
(*quetsch*) Ich hab die Query jetzt ein wenig umgebaut.Klein-/Großschreibung ist egal und nur noch die Hosts mit mehr als 10 Vorkommen. d-nb.info und beacon.findbuch.de sind schon mal gewaltig reduziert, die sollten auf nahezu Null kommen. --Wurgl (Diskussion) 17:53, 4. Apr. 2018 (CEST)Beantworten
@Luke081515, Soluvo: was haltet ihr vom ersten Schritt: Seiten die mittels Status 301 bzw. 302 von http nach https umleiten (z.B. www.heise.de) und ev. auch Seiten die mittels Refresh nach https umleiten (z.B. www.munzinger.de). Wenn du, Luke dann mittels insource-Suche aufwirfst, wenn diese http-Urls in Vorlage drinnen sind, dann mach ich die auch gleich per Hand – oder kannst du die auch automagisch umstellen? --Wurgl (Diskussion) 11:31, 4. Apr. 2018 (CEST)Beantworten
@Wurgl: Ja, heise geht auch. Die 301-Weiterleitung und die Refreshs würde ich umstellen, die 302 Weiterleitung eventuell noch nicht. Wenn man sich HTTP-Statuscode#3xx – Umleitung anschaut, steht die 301-Weiterleitung für "Moved Permanently", während 302 für "Found (Moved Temporarily)" steht. Da wir nicht wissen, warum die 302-Seiten nur temporär umgezogen sind, würde ich diese noch nicht umstellen. --Soluvo (Diskussion) 13:39, 4. Apr. 2018 (CEST)Beantworten
So, alles um Normdaten herum ist umgestellt. Damit werden wohl ca. 1 Mio http-Links verschwinden (etwas über 8 Mio Einträge in der Datenbank-Tabelle externallinks gibt es). Und ein paar andere hab ich auch umgestellt. --Wurgl (Diskussion) 17:32, 3. Apr. 2018 (CEST)Beantworten
Es gibt da noch eine Sache. ich habe meinen Browser so eingestellt, dass der nörgelt, wenn von einer https-Seite irgendwelches Zeugs per http nachgeladen wird. Dieses Zeugs sind üblicherweise Bilder, Scripte oder auch css-Files, manchmal auch Werbung. Beispielseite: https://www.chemspider.com Die Frage ist nun, ob solche Seiten auch auf https umgestellt werden sollen? Und das Problemchen hier ist die automagische Erkennung durch einen Bot. Der müsste nämlich die Seiten saugen und auf http-Links untersuchen was nicht sehr erfrischend ist. --Wurgl (Diskussion) 17:47, 3. Apr. 2018 (CEST)Beantworten
Ja, richtig, diese Herausforderung sehe ich auch. In meiner Antwort oben habe ich diese Inhalte als Mixed Content bezeichnet, siehe z.B. bei developers.google.com.
Mixed-Content-Check (Website ist nur teilweise verschlüsselt): https://www.jitbit.com/sslcheck/, oder Google "Mixed content finder"
Ich würde die nur teilweise verschlüsselten Websites noch nicht automatisch umstellen. Um herauszufinden, welche Websites nur teilweise verschlüsselt sind, sollte eine Website meiner Meinung nach manuell überprüft werden (also nicht per Bot). Unter Benutzer:Soluvo/Automatisiert#Internetseiten habe ich eine Liste von Seiten erstellt, die umgestellt werden sollten. Ich muss nochmal prüfen, ob die Seiten auch alle verschlüsselt sind. --Soluvo (Diskussion) 08:41, 4. Apr. 2018 (CEST)Beantworten
So einige Seiten leiten http selbstständig nach https um, bei denen kannst ohne viel nachzudenken umstellen. Die Zeit die man sich hier einspart, geht eben bei "mixed content" verloren :-( --Wurgl (Diskussion) 09:16, 4. Apr. 2018 (CEST)Beantworten
@Luke081515, Wurgl: Gibt es etwas, das ich noch machen kann? Ich würde gerne helfen, doch fällt mir momentan nichts ein, wie ich das am besten machen kann. Soll z.B. ich Listen erstellen für Websites, die umgestellt werden können oder bei bestimmten Websites manuell die Verschlüsselung überprüfen oder etwas filtern, programmieren, etc.? Sagt bitte Bescheid, was ich machen soll! --Soluvo (Diskussion) 18:28, 5. Apr. 2018 (CEST)Beantworten
Von meiner Seite aus wüsste ich nichts. Ich such jeden Tag in den Vorlagen nach ein paar von den Hosts die auf Seite 1 der Quarry auftauchen und stell ein paar Vorlagen um. Aber es ist fade, es sind nicht mehr viele. Gibt übrigens auch "lustige" Seiten, wie die FAZ: Die lenkt https nach http um. --Wurgl (Diskussion) 18:34, 5. Apr. 2018 (CEST)Beantworten
Das klingt gut! Ja, ich habe auch schon einige Vorlagen auf HTTPS umgestellt. Das mit der FAZ ist mir auch schon aufgefallen. Ist bei der Süddeutschen Zeitung auch so. Leider... --Soluvo (Diskussion) 22:40, 5. Apr. 2018 (CEST)Beantworten
@188.193.237.8: Kannst Du beschreiben, wann es passiert, dass http- und https-Seite unterschiedliche Inhalte zeigen? Hast Du vielleicht ein Beispiel für uns?
Ach Mann! Ja, es gibt unterschiedliche Inhalte: Https liefert den Inhalt aus, Http liefert eine Weiterleitung aus. Aber das auf http von einem Hochhausbrand und auf https unter der gleichen restlichen Adresse ein Kinofilm besprochen wird … Vergiss es einfach. --Wurgl (Diskussion) 22:49, 5. Apr. 2018 (CEST)Beantworten
Man kann solche Beispiele konstruieren, weil es technisch möglich ist. Für Wikipedia relevante Seiten verwenden solche Spielereien eher nicht. Was sein kann ist, dass die Inhalte zu unterschiedlichen Zeitpunkten aktualisiert werden, aber das ist ein kurzzeitiges Phänomen. Seiten die über einen längeren Zeitraum unterschiedlich waren, und hier von Interesse sind, kenne ich keine. Frohes Schaffen — Boshomi⌨00:49, 6. Apr. 2018 (CEST)Beantworten
Ich würde zur Sicherheit vorschlagen, jeweils den Quellcode von http und https zu vergleichen - dann wären wir doch auf der sicheren Seite. --FNDE17:25, 7. Apr. 2018 (CEST)Beantworten
Da hast du viele Unterschiede. Bei der einen Seite steht http, bei der anderen https. Wenn die Seite Werbung geschalten hat, dann kann es durchaus sein, dass da unterschiedliche Werbung eingeblendet wird. Dann hast du manchmal Links mit einer Session-ID im Quellcode. *seufz* So ein Vergleich ist eine Diplomarbeit. Da frag ich doch auch, ob jemand IPv4 mit IPv6-Seiten verglichen hat, ist ja ein ähnlicher Fall. --Wurgl (Diskussion) 19:39, 7. Apr. 2018 (CEST)Beantworten
Es gibt jetzt noch einen weiteren Aspekt dieses Themas. tvspielfilm.de liefert für https zumindest in einigen Fällen (Beispiel) zur Zeit, dass die Seite nicht angezeigt werden kann während der gleiche Link für http funktioniert. Das Problem daran ist, dass die Links in einigen Artikeln (der Artikel zu den Beispielen: Ein starkes Team: Die Schöne vom Beckenrand) bereits als https eingetragen ist/war und nun vom Internetarchivebot auf Archiv umgestellt wurde. Dies betrifft mehrere Artikel zu Filmen dieser Reihe. --Senechthon (Diskussion) 15:47, 8. Apr. 2018 (CEST)Beantworten
Mein Plan wäre gewesen die zu entfernen, was anderes macht meiner Meinung nach auch keinen Sinn. Knapp unter 1000 Treffer sind das. Viele Grüße, Luke08151507:55, 3. Apr. 2018 (CEST)Beantworten
Ich ersetze jetzt erstmal das Zeugs außerhalb der Kommentar, weil ja auch Leyo was dazu geschrieben hatte. @Leyo: Magst du hier noch einmal schreiben, warum du die ausnehmen wolltest? Merci, Luke08151523:16, 3. Apr. 2018 (CEST)Beantworten
Nun, solange solche Syntaxfehler auskommentiert und damit nicht sichtbar sind, kann die wohl belassen, wenn man den Artikel nicht sowieso bearbeitet. --Leyo23:23, 3. Apr. 2018 (CEST)Beantworten
Heute nen Teil gemacht, mache morgen oder so weiter. Vieles sind einfach nur Kopiervorlagen, und die paar Treffer die man da hat erfordern in vielen Fällen Handarbeit. Viele Grüße, Luke08151500:16, 4. Apr. 2018 (CEST)Beantworten
Letzter Kommentar: vor 6 Jahren7 Kommentare4 Personen sind an der Diskussion beteiligt
Unter en:User:FrescoBot/galleries gibt es eine Zusammenstellung von Syntaxfehlertypen in Galerien. Einige davon gibt's bestimmt auch lokal, beispielsweise ungültige Parameter wie thumb. Können die entsprechenden Artikel mittels Cirrus gefunden werden? --Leyo14:48, 9. Apr. 2018 (CEST)Beantworten
Keine Pipe nach Dateinamen - kann auch eine Galerie ohne Bildbeschriftungen sein (siehe Zeilenumbruchsproblem). Hier für jpg, für andere Dateiendungen analog suchen.
@Leyo, Mfb, Luke081515: Hi! I'm the operator of FrescoBot. I'm sorry for the delay. Well in order to safely fix such a large number of problems I must parse the gallery. The script is tested and adding the german tags is pretty easy, so if you want I could ask the permission to run the script also here on de.wiki. Unfortunately I don't speak german, so I will need some help in the translation of the few possible edit summaries (eg. "galleries with HTML tags problems", "nonexistent images", etc). -- Basilicofresco (msg) 09:13, 25. Apr. 2018 (CEST)Beantworten
Thanks for your offer. I would clearly support it.
If you provide a list of edit summaries, we will translate them. If certain types of errors appear a few times only, I would also be fine to fix them using an English edit summary. --Leyo09:32, 25. Apr. 2018 (CEST)Beantworten
Gelegentlich mal nicht erreichbare URL gibt es auf //www.zeit.de/ unter den Millionen auf deren Server, weil der sich mal verheddert oder bei uns die URL beschädigt wurde. Aber in der Regel passt das.
Ich kümmere mich darum, inklusive Check, dass die neuen Links erreichbar sind, entfernen möglicher IABot-Hinweise und Umstellung auf HTTPS.--Cirdan±21:13, 5. Jun. 2018 (CEST)Beantworten
Dieser Botauftrag wird gerade von KompostBot (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).
Fehlende Leerzeichen nach Punkten
Letzter Kommentar: vor 6 Jahren11 Kommentare5 Personen sind an der Diskussion beteiligt
Leyo schrieb doch selbst meist, darum ist das auch nicht für einen Bot geeignet. Mit Komma statt Punkt findet man noch mehr Fehler. -- Gruß, aka 13:03, 11. Apr. 2018 (CEST) PS: [^(Datei|File|Bild|Image|admin)] macht nicht das, was du vermutlich wolltest. Du schließt damit alle Links aus, die mit einem der Buchstaben aus "dateiflbmagn" beginnen. In Perl würde ich (?!..|..|..) verwenden, was die interne Suchmaschine hier aber nicht zu verstehen scheint. -- Gruß, aka14:15, 11. Apr. 2018 (CEST)Beantworten
Was ist denn das für eine Aussage!? Wenn ein Vegetarier ein Schnitzel durch Salat ersetzt, kann er es auch essen, ja ;-) -- Gruß, aka12:16, 12. Apr. 2018 (CEST)Beantworten
Bitte um Bot für die Koordinatenerstellung der Counties von New South Wales
Letzter Kommentar: vor 6 Jahren2 Kommentare1 Person ist an der Diskussion beteiligt
Liebe Bot-Autorenschaft,
nachdem meine Botanfrage in der en-WP nach Ablauf des Mindesthaltbarkeitsdatums ergebnislos archiviert wurde (kein Bot-Schreiber dort wollte ihr nähertreten), dachte ich mir, ich will es mal hier in meiner deutschen Heim-WP versuchen, obwohl zunächst mal die en-WP von dem Bot profitieren würde, der mir vorschwebt. Auch weil ich hier über die Jahre sehr gute Erfahrungen mit fähigen Bot-Autoren machen durfte.
Also: Schauen wir uns die County-Tabelle im Artikel en:Lands_administrative_divisions_of_New_South_Wales#Table_of_counties an. Diese Tabelle der Counties von New South Wales wollte ich gerne um eine Spalte mit den Koordinaten ergänzen. Woher nehmen, die Koordinaten? Es ist leider nicht so einfach, als Bot einen County-Link nach dem anderen anzusteuern und die in den County-Artikeln eingetragenen Koordinaten auszulesen, denn die County-Artikel haben keine County-Koordinaten. Aber erstaunlicher Weise hat jeder der weit über 100 County-Artikel eine Parish-Tabelle mit einer Koordinatenspalte. Der zu schreibende Bot müsste also in jedem County-Artikel folgendes tun:
Bestimme bei der geogr. Breite (erster Teil des Koordinatenpaars) den niedrigsten und den höchsten Wert, und errechne den Mittelwert
Gleiches für die geogr. Länge
Bastle aus dem errechneten Koordinatenpaar einen zusätzlichen Eintrag in die "Infobox Australian Place" nach dem Format
Und damit dieser Bot-Auftrag von Beginn an auch seine Berechtigung in der de-WP hat, gibt es seit ein paar Sekunden den neuen Artikel Liste der Countys in New South Wales. Auch diese Tabelle müsste mit den nach vorstehender Methode ermittelten Koordinaten gefüttert werden. Unser Koordinatenformat sieht etwas anders aus:
Letzter Kommentar: vor 6 Jahren20 Kommentare7 Personen sind an der Diskussion beteiligt
Ich habe gerade eine Commonscat-Verlinkung, die auf eine Weiterleitung führte, korrigiert. Könnten alle Commonscat-Einbindungen auf ihre korrekte Verlinkung geprüft werden (Linkziel inkorrekt)? Allenfalls könnte dies anhand Wikidata (P373) geschehen. Bei Nicht-Übereinstimmung der lokalen Angabe und des Wikidata-Eintrags könnte allenfalls eine Wartungskategorie helfen. --Leyo15:51, 18. Apr. 2018 (CEST)Beantworten
Spontane Idee: Man könnte schauen, bei welchen Artikel sich eine Änderung ergäbe, wenn man den Parameter 1 der Vorlage:Commonscat durch {{subst:#invoke:Wikidata|claim|P373}} ersetzen würde. --Leyo13:19, 25. Apr. 2018 (CEST)Beantworten
Das liegt dann aber daran, dass die verlinkte Commonskategorie per se nicht sinnvoll ist. In deinen beiden Beispielen habe ich sie daher entfernt. Mir ist allerdings noch aufgefallen, dass der Bot teilweise Links auch auf BKL-Seiten korrigiert hat, z. B. hier. Im Prinzip nicht so schlimm, kann man dann in einem zweitem Schritt manuell korrigieren, ich wollte es nur anmerken. 94.217.110.13718:30, 28. Apr. 2018 (CEST)Beantworten
in Hochkommas eingeschlosse Vorlage Webarchiv von diesen befreien
Letzter Kommentar: vor 6 Jahren9 Kommentare6 Personen sind an der Diskussion beteiligt
Auf Vorschlag von Mabschaaf habe ich heute den Linktext der Vorlage {{Webarchiv}} in <cite>-Tags eingebunden. In etwa 2-3% der Einbindungen steht die ganze Vorlage zwischen Hochkommas:''{{Webarchiv|...}}''. Diese führenden und folgenden Hochkomma sollten nun entfernt werden.
(Ist nur der text-Parameter in Hochomma eingeschossen, hat eine Entfernung keine sichtbare Auswirkung, sollte aber so mit den Botregeln vertretbar, ist auch entfernt werden) Frohes Schaffen — Boshomi⌨18:59, 30. Apr. 2018 (CEST)Beantworten
Darf ich mal bestürzt nachfragen?
Was das für eine Formatierung bewirken solle? <cite> ist keine dauerhafte Formatierungsanweisung, sondern eine semantische Information, dass hier der Name eines Autors erwähnt wird, der zitiert wird, oder irgendeine Art von Hinweis darauf, woher zitiert wurde, oder vielleicht auch was für eine Art. Es könnte auch der Titel eines zitierten Werkes sein, aber genauso gut alles mögliche andere.
Es ist grundsätzlich keine zulässige Zitation bei uns, wenn ausnahmslos alles und jedes, das in der text=-Zuweisung stünde, immer und ausnahmslos kursiviert würde. Es könnte sich auch um Schlagwörter wie „Eintrag“ oder „Digitalisat“ handeln, und die bleiben aufrecht stehen.
Dort hatte ursprünglich mal gestanden ''[http://example.org/ Titel.]'' und das wurde blind ersetzt durch ''{{Webarchiv|url=http://example.org/|text=Titel.}}'' – was schon nicht sehr geschickt gewesen war.
Zurzeit bewirkt das cite zwar in manchen Desktop-Browsern Kursivschrift; das ist aber nur ein zufälliger Nebeneffekt und nirgendwo standardisiert, auch nicht von MediaWiki abgesichert. Es ist genau der gleiche Missbrauch eines anderen Syntaxelements wie das des Semikolons zur Erzeugung von Fettschrift, was Mobilgeräte aber gar nicht mitmachen und was genausowenig irgendwo standardisiert wäre. <cite> bedeutet lediglich, dass der Inhalt irgendwie irgendwas mit einer Zitation zu tun hätte, aber keine Formatierung und nicht, ob es sich um eine Person oder einen Werktitel oder eine ISBN oder DOI oder alles zusammen handeln würde. w3.org
Genau anders als von Boshomi beschrieben muss in genau den Fällen, in denen im Moment die ganze Vorlage von doppelten Hochkommata eingeschlossen ist, diese Formatierung genau um den Wert des Parameters text= herum verschoben werden.
Wenn es jedoch vorher keine Kursivierung gegeben hattte, dann darf es auch hinterher keine Kursivierung der Linkbeschriftung geben. Dies ist bedeutungstragend und unterscheidet echte Werktitel von sonstigen Begriffen, Fundstellen usw.
@Boshomi: Mit genau welchem Edit hast du genau wo etwas ersetzt? Ich sehe nichts.
@PerfektesChaos: Die Umsetzung erfolgt in den Unterforlagen von Webarchiv. Siehe meine heutige Beitragsliste. Dass dir ursprünglichen Ersetzungen nicht sonderlich geschickt waren sehe ich auch so. Ich hab das im wesentlich von {{Cite web}} übernommen. Für Verbesserungen bin ich offen. Frohes Schaffen — Boshomi⌨20:46, 30. Apr. 2018 (CEST)Beantworten
Moin Moin zusammen, kann es sein @Boshomi:, dass mit der Änderung von Wayback nun die Wartungskategorie gefüllt wird, und zwar zu Hauf, weil die Vorlage "Zitationsvorlage rekursiv eingebunden" ist? @PerfektesChaos: kann man das besser lösen? Ansonsten bräuchte die Vorlage Literatur wohl auch die Parameter |archiv-url= und |archiv-datum= . mfg --Crazy188021:15, 30. Apr. 2018 (CEST)Beantworten
Wenn da vorher gestanden hatte [http://example.org/page42 S. 42] und das wurde ersetzt durch {{Webarchiv|url=http://example.org/page42|text=S. 42}}, dann stand das vorher unkursiviert und hat gefälligst auch unkursiviert zu bleiben.
Wir schreiben keine Seitenzahlen in Kursivschrift.
Boshomi hat einfach eine Ergänzung zu WP:WEB und WP:ZR erfunden, die schlicht lautet: Ausnahmslos alle Weblinks werden immer in Kursivschrift formatiert. Zumindest, wenn sie auf ein Webarchiv zeigen.
Das ist selbstverständlich Nonsens.
Die Veränderungen an den Untervorlagen müssen revertiert werden.
Mal abgesehen davon sind sie nur zufällig von willkürlichen Effekten bei manchen Browsern abhängig, denn <cite> ist überhaupt nicht dafür vorgesehen, irgendeine sichtbare Wirkung hervorzurufen, und wenn das aus irgendeiner Tradition heraus manche Entwicklungslinien einiger Browser machen, dann unterlassen selbst diese es vielleicht zukünftig, weil es sich als störend herausstellt.
Die vorhandenen Hochkommata müssen nach innen um den Wert des Parameters text= herum verschoben werden.
Die vorhandenen Hochkommata sind der einzige Informationsträger, der zwischen einer Seitenzahl und einem Werktitel unterscheiden kann, und dürfen auf gar keinen Fall ersatzlos gelöscht werden, wie Boshomi dies einleitend beantragt hatte.
CSS-Klassen haben mit dieser Angelegenheit hier nichts, aber auch absolut sowas von gar nichts zu tun.
Die Vorlage:Literatur arbeitet mit gedrucktem Material und wird ganz definitiv keine derartigen Parameter anbieten.
Braucht sie auch nicht. In Abrictosaurus hatte Boshomi das Wörtchen online zum angeblichen Werktitel erklärt. Vorlage:Literatur hatte aber bereits den korrekten Werktitel Dinosauria Translation and Pronunciation Guide A angezeigt und duldet es nicht, wenn da irgendwer daherkommt und einen konkurrierenden Werktitel reinzudrücken versucht.
Man ahnt, warum ich nicht zum produktiven Arbeiten komme, wenn ich täglich Feuerwehr spielen muss. Als diese Überschrift über meine Beo flimmerte, wusste ich sofort, dass hier Unsinn verhindert werden muss und ich zum unverzüglichen Eingreifen gezwungen bin. Bald zwei Stunden haltet ihr mich jetzt von der Arbeit ab.
wieso bist Du zum unverzüglichen Eingreifen gezwungen? Dass das Nonsens ist, ist doch jedem eigentlich klar. Ein Botbetreiber wird so etwas nicht programmieren, wenn er die Kenntnisse besitzt. Und das ist wohl der Fall, meiner Einschätzung nach – Doc Taxon • Disk. • WikiMUC • Wikiliebe?! • 22:00, 30. Apr. 2018 (CEST)Beantworten
Letzter Kommentar: vor 6 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Es gibt 427 Artikel mit URL vom Typ //wissen.spiegel.de/wissen/image/show.html?did=12345678&...............
Vermutlich knapp 200 hat der InternetArchiveBot bereits in die Finger bekommen; stehen zumindest in Vorlage:Webarchiv.
Es handelt sich um PDF-Versionen des gedruckten Spiegel.
Offensichtlich unterstützt der Verlag dieses URL-Schema nicht mehr.
Diese sind in aller Regel erreichbar als http://www.spiegel.de/spiegel/print/d-12345678.html
Problem: Oft steht diese normale HTML-URL bereits unmittelbar davor, und das PDF-Link ist nur eine absolut überflüssige und vollredundante Wiederholung von etwas, was sowieso bereits von der HTML-Seite aus als „PDF drucken“ mit momentan gültiger URL verlinkt ist.
In diesem Fall, wenn es also auf den vorangehenden 500 Zeichen diese Zahlenkombination bereits gibt, kann das Weblink bzw. Vorlage:Webarchiv komplett eliminiert werden (und kein <ref> zwischendrin steht etc.).
Unendlichkeitssymbol ∞ durch Heiratssymbol ⚭ ersetzen
Letzter Kommentar: vor 6 Jahren15 Kommentare8 Personen sind an der Diskussion beteiligt
In diversen Artikeln (z. B. Elisabeth II.#Verwandtschaft) ist fälschlicherweise ein Unendlichkeitssymbol ∞ gesetzt, wo ein Heiratssymbol ⚭ hingehört. Mir fällt kein Fall ein, wo "∞ [0-9]" (Regex) sinnvoll ist, insofern kann man wahrscheinlich bei all diesen Vorkommen ∞ durch ⚭ ersetzen. --46.5.0.1020:31, 20. Mai 2018 (CEST)Beantworten
Botbearbeitungen für Suchen und Ersetzen in einem Artikel sind nicht nötig. Du kannst aber unter Quelltext bearbeiten im Menü Erweitert mit dem Symbol ganz rechts die Arbeit manuell erledigen. Ein Bot würde übrigens die Artikel nicht von selbst finden. --Honischboy (Diskussion) 20:39, 20. Mai 2018 (CEST)Beantworten
Dieser Botauftrag wird gerade von BotAccount bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Diskussion).
@Kuebi: Ja, aber man kann dieses Flag bei Bearbeitungen setzen oder nicht (per API z.B. durch &bot=1). Und das setzt dein Bot derzeit nicht. Wenn ich in die RC schaue, und Bots ausblende, wird dein Bot noch angezeigt. Viele Grüße, Luke08151515:29, 3. Jun. 2018 (CEST)Beantworten
Ja, am nächsten Wochenende. Merkwürdig, dass das Suchscript die beim Suchlauf nicht fand, sondern nur die oben genannten ca. 1800 (sprich 1903). Wieso jetzt die 142 Artikel bei Dir und, wenn ich das Suchskript laufen lasse gar 461 (!) Artikel oder eine Minute später 438 Artikel, dann wieder 372 auftauchen? Das Suchscript ist nicht sehr zuverlässig bzw. bricht es wohl die Suche gelegentlich ab. Gruß --Kuebi [✍ · Δ] 17:54, 5. Jun. 2018 (CEST)Beantworten
@Doc Taxon: Ich erkläre am besten mal, wie mein Bot das abarbeitet. Im ersten Schritt holt sich die Software über die Suche [15] sämtliche Artikel, in denen der gesuchte Begriff vorkommt. Und hier ist auch schon das „Problem“: der Aufruf liefert ganz unterschiedliche Ergebnisse, aktuell so um die 400 Artikel, mit der oben genannten Bandbreite. Die ausgelesenen Lemmata werden in eine Datenbank gespeichert und dann im zweiten Schritt eins nach dem anderen abgearbeitet. Gruß --Kuebi [✍ · Δ] 18:59, 5. Jun. 2018 (CEST)Beantworten
Umstellung Domainnamen d-nb.de auf dnb.de
Letzter Kommentar: vor 6 Jahren6 Kommentare3 Personen sind an der Diskussion beteiligt
Es sind ca. 1200 Seiten betroffen und überall ist der Domainname d-nb.de in diversen Links auf dnb.de umzustellen. Mindestens seit Samstag ist d-nb.de unerreichbar (Nameserver löst den Namen nicht auf), die Inhalte sind deckungsgleich auf dnb.de zu lesen.
@Wurgl: IABot ist kein Problem, das kann ich auch per Bot erledigen. Kannst du einschätzen, ob anstatt einer Linkkorrektur der Einsatz einer Vorlage sinnvoll wäre?--Cirdan±19:26, 4. Jun. 2018 (CEST)Beantworten